部落格及其法律問題之初探

刊登期別
第19卷,第04期,2007年04月
 

※ 部落格及其法律問題之初探, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=2253&no=67&tp=1 (最後瀏覽日:2026/02/07)
引註此篇文章
你可能還會想看
英國與美國為人工智慧安全共同開發簽署合作備忘錄

英國技術大臣(U.K. Secretary of State for Science)蜜雪兒·多尼蘭(Michelle Donelan)和美國商務部長(U.S. Secretary of Commerce)吉娜·雷蒙多(Gina Raimondo)於2024年4月1日在華盛頓特區簽署一份合作備忘錄(MOU),雙方將共同開發先進人工智慧(frontier AI)模型及測試,成為首批就測試和評估人工智慧模型風險等進行正式合作之國家。 此備忘錄之簽署,是為履行2023年11月在英國的布萊切利公園(Bletchley Park)所舉行的首屆人工智慧安全峰會(AI Safety Summit)上之承諾,諸如先進AI的急速進步及濫用風險、開發者應負責任地測試和評估應採取之適當措施、重視國際合作和資訊共享之必要性等等,以此為基礎羅列出兩國政府將如何在人工智慧安全方面匯集技術知識、資訊和人才,並開展以下幾項聯合活動: 1.制定模型評估的共用框架(model evaluations),包括基礎方法(underpinning methodologies)、基礎設施(infrastructures)和流程(processes)。 2.對可公開近用模型執行至少一次聯合測試演習(joint testing exercise)。 3.在人工智慧安全技術研究方面進行合作,以推進先進人工智慧模型之國際科學知識,並促進人工智慧安全和技術政策的一致性。 4.讓英、美兩國安全研究所(AI Safety Institute)間的人員互相交流利用其團體知識。 5.在其活動範圍內,依據國家法律、法規和契約規定來相互共享資訊。 換言之,兩國的機構將共同制定人工智慧安全測試之國際標準,以及適用於先進人工智慧模型設計、開發、部署、使用之其他標準。確立一套通用人工智慧安全測試方法,並向其他合作夥伴分享該能力,以確保能夠有效應對這些風險。就如英國技術大臣蜜雪兒·多尼蘭強調的,確保人工智慧的安全發展是全球性問題,只有通過共同努力,我們才能面對技術所帶來的風險,並利用這項技術幫助人類過上更好的生活。

法國即將設立新的簽證種類「科技簽證viva tech」面向三類科技人才

  法國總統馬克宏(Emmanuel Macron)6月15日在法國巴黎舉行開幕的法國創新技術會議(Viva Technology)上,宣布兩項新政策措施:簽證與投資基金。馬克宏宣布,即將設立新的簽證種類「科技簽證viva tech」法國科技簽證面向三類科技人才:創業創始人,員工和投資者,並允許他們在法國生活和工作。其內容如下:   一、 有效期限為四年,並且已可再生做為基礎。   二、 其延伸至直系親屬,且配偶還可獲得居留許可,得在法國生活、工作。 受撫養的孩子也有權在法國居住。   三、 且其不需要額外的工作許可,而來自歐洲經濟區和瑞士的公民則不需要居留許可。   而針對法國科技簽證的資格,有三個,一為企業創始人,二為員工,三為投資者,而三者類型可以透過不同的途徑獲得「科技簽證」。   如:企業創始人要成為法國技術簽證的創業者,其申請條件包括計畫在法國發展經濟創新型的創業項目,始符合申請資格。   若想以僱員身分獲得法國技術簽證的資格,必須擁有研究生學位(碩士以上)、與法國公司有資格通過法國技術簽證招聘的最少3個月的工作合約、年薪總額至少35,526.40歐元(為2017年1月1日法國最低工資的兩倍)。   而針對投資者,該簽證瞄準風險投資家和商業天使投資創業公司,有幾種方法可以獲得法國投資者技術簽證的資格:一家外國風險投資公司在法國開設辦事處、外國投資者由法國的風險投資公司招募、商業天使(通常是成功的企業家)移居法國。而要獲得標有“商業投資者”的人才通行證,須投資至少30萬歐元的固定有形或無形資產。直接或通過您至少擁有30%股權的公司進行投資、至少擁有您所投資公司的10%,並且在投資後的四年內創造或保護工作,而法國風險投資公司招募的外國投資者則不要考慮這些標準。   法國今年夏天推出“法國簽證”項目,使簽證更容易發放,政府部門遵循的程序更加可靠。

政府科研計畫執行與貪污犯罪

美國國家標準與技術研究院公布人工智慧風險管理框架(AI RMF 1.0)

美國國家標準與技術研究院(National Institute of Standards and Technology, NIST)於2023年1月26日公布「人工智慧風險管理框架1.0」(Artificial Intelligence Risk Management Framework, AI RMF 1.0),該自願性框架提供相關資源,以協助組織與個人管理人工智慧風險,並促進可信賴的人工智慧(Trustworthy AI)之設計、開發與使用。NIST曾於2021年7月29日提出「人工智慧風險管理框架」草案進行公眾徵詢,獲得業界之建議包含框架應有明確之衡量方法以及數值指標、人工智慧系統設計時應先思考整體系統之假設於真實世界中運作時,是否會產生公平性或誤差的問題等。本框架將隨著各界使用後的意見回饋持續更新,期待各產業發展出適合自己的使用方式。 本框架首先說明人工智慧技術的風險與其他科技的差異,定義人工智慧與可信賴的人工智慧,並指出設計該自願性框架的目的。再來,其分析人工智慧風險管理的困難,並用人工智慧的生命週期定義出風險管理相關人員(AI actors)。本框架提供七種評估人工智慧系統之信賴度的特徵,包含有效且可靠(valid and reliable):有客觀證據證明人工智慧系統的有效性與系統穩定度;安全性(safe):包含生命、健康、財產、環境安全,且應依照安全風險種類決定管理上的優先次序;資安與韌性(secure and resilient);可歸責與資訊透明度(accountable and transparent);可解釋性與可詮譯性(explainable and interpretable);隱私保護(privacy-enhanced);公平性—有害偏見管理(fair – with harmful bias managed)。 本框架亦提出人工智慧風險管理框架核心(AI RMF Core)概念,包含四項主要功能:治理、映射(mapping)、量測與管理。其中,治理功能為一切的基礎,負責孕育風險管理文化。各項功能皆有具體項目與子項目,並對應特定行動和結果產出。NIST同時公布「人工智慧風險管理框架教戰手冊」(AI RMF Playbook),提供實際做法之建議,並鼓勵業界分享其具體成果供他人參考。

TOP