現有法制對公立大學教授技術作價之現況與困難

刊登期別
第27卷,第09期,2015年09月
 

※ 現有法制對公立大學教授技術作價之現況與困難, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=7553&no=55&tp=1 (最後瀏覽日:2026/04/06)
引註此篇文章
你可能還會想看
歐盟第29條工作小組發布「自動化個人決策和分析指引」處理個人資料自動化決策與資料剖析風險問題

  歐盟第29條工作小組於2017年10月3日為因應歐盟一般資料保護規則(GDPR)第22條規定發布「自動化個人決策和分析指引」(Guidelines on Automated individual decision-making and Profiling for the purposes of Regulation 2016/679,2018年2月6日進一步修正,下稱指引),處理對個人資料自動化決策(automated decision-making)和個人檔案剖析(Profiling)的建立。   指引分為五個部分與最佳實踐建議,旨在幫助資料控制者(controller)合乎GDPR對個人資料自動化決策和分析的要求,內容包括下幾點:1.定義自動化決策和分析,以及GDPR對這些概念的處理方法;2.對GDPR第22條中關於自動化決策的具體規定;3.對自動決策和分析的一般規定;4.兒童和個人檔案剖析(Profiling)的建立;5.資料保護影響評估。   指引的主要內容包括:   個人檔案剖析(Profiling),意謂收集關於個人(或一群個人)的資料,並分析他們的特徵或行為模式,加以分類或分群,放入特定的類別或組中,和/或進行預測或評估(例如,他們執行任務的能力,興趣或可能的行為)。   禁止對個人資料完全自動化決策,包括有法律上法或相類重大影響的檔案剖析,但規則也有例外。應有措施保障資料主體的權利,自由和合法利益。   GDPR第22條第二項a之例外規定,(履行契約所必需的),自動化個人決策時,應該作狹義解釋。資料控制者必須能夠提出分析、自動化個人決策的必要性,同時考慮是否可以採取侵害隱私較少之方法。   工作小組澄清,關於在要求提供有關自動化決策所涉及的邏輯上有意義的資料時,控制者應以簡單的方法,告訴資料主體其背後的理由或依據的標準,而不得總是以自動化決策所使用算法進行複雜的解釋或者公開完整的算法為之。所提供的資料應該對資料當事人有意義。   對資料主體提供關於處理自動化決策上有關重要性和預期後果的資料,其意義在於必須提供關於該資料之用途或資料未來處理以及自動化決策如何影響資料主體的重要訊息。例如,在信用評等的情況下,應有權知道其資料處理的基礎,資料主體並能對其作出正確與否的決定,而不僅僅是關於決策本身的資料。   「法律效果」是指對某人的法律權利有影響,或者影響到個人法律關係或者其契約上權利。   工作組並未將GDPR前言71段視為絕對禁止純粹與兒童有關的自動決定,指出僅在某些情況下才有其適用(例如,保護兒童的福利)。   在基於自動化處理(包括分析)以及基於哪些決策產生法律效應或類似顯著效果的基礎上對個人方面進行系統和廣泛評估的情況下,進行資料保護影響評估並不局限於「單獨」自動化處理/決定。

世界智慧財產權組織發布「2019年全球創新指數報告」(GII)

  2019年7月24日,世界智慧財產權組織(World Intellectual Property Organization, WIPO)、美國康乃爾大學(Cornell University)、歐洲工商管理學院(INSEAD)共同發布「2019年全球創新指數報告」(Global Innovation Index 2019, GII)。GII報告每年度發行一份,希望幫助全球決策者更有效地制定政策及促進創新。本年度的報告主題是「創造健康生活─醫療創新之未來展望」,內容展望創新醫療,包括:導入人工智慧(artificial intelligence, AI)、基因體學(genomics)和健康醫療相關的手機應用程式,將會改變醫療照護。醫療創新無論是在診斷或預後,由於大數據、物聯網(Internet of Things, IoT)和人工智慧等新興科技的興起而改變。伴隨而來的是倫理、社會經濟等多方面、史無前例且迫切的挑戰。報告中提及幾項重要發現: 儘管經濟衰退,然而全球創新遍地成長,不可忽略保護主義對於全球創新的潛在風險。 創新版圖開始位移,中收入的經濟體開始嶄露頭角,值得一提的是以色列躋身第十名,而南韓也在前二十名的名單。 創新的投入和成果(innovation inputs and outputs)仍集中於特定少數經濟體和地區。 特定經濟體透過創新獲得的投資報酬率,大幅高過其他經濟體。 從「重量不重質」,蛻變為「重質不重量」,仍為改革的重要方針。 多數科學與科技的創新集中在美國、中國和德國。 需要更多的投資並將科技普及化,方能透過醫療創新打造健康生活。   GII依據80項指標評比129個經濟體,指出,全球創新指數最高的國家排名前五名為:瑞士、瑞典、美國、荷蘭、英國,均為高所得國家。中高所得國家創新指數前三名為:中國、馬來西亞、保加利亞;中低所得國家前三名為:越南、烏克蘭、喬治亞;低所得國家前三名則是:盧安達、塞內加爾、坦尚尼亞。至於區域性的創性領袖國是印度(中亞與南亞)、南非(撒哈拉以南非洲)、智利(拉丁美洲和加勒比海地區)、以色列(北非與西亞)、新加坡(東南亞、東亞與大洋洲)。最頂尖的自然與科技聚落所在國家為:美國、中國、德國;並特別指出巴西、印度、伊朗、俄羅斯、土耳其表現亮眼。最頂尖五大聚落是東京-橫濱(日本)、深圳-香港(中國大陸)、首爾(南韓)、北京(中國大陸)、聖荷西-洛杉磯(美國)。

全球Open Data成功及挑戰之關鍵報告

  根據全球資訊網基金會(World Wide Web Foundation)及英國開放資料協會(Open Data Institute)指出,全球77個國家正進行Open Data政府開放資料政策,但實際運作上,各國政府提供公眾近用之資料集佔不到全世界政府資料的10%,呈現各國Open Data政策實行還有很大進步空間。   全球資訊網基金會與英國開放資料協會所合作的網絡平台-政府開放資料研究網絡(Open Data Research Network),針對各國政府開放資料執行狀況進行評比並提出Open Data Barometer研究報告。此報告指出,英國政府開放資料執行及成效排名第一,其次排名陸續為美國、瑞典、紐西蘭、丹麥、挪威。除此之外,專以倡導開放知識、資料、內容的國際非政府組織,開放知識基金會(Open Knowledge Foundation),則提出基於Open Data可用性及近用性進行70個國家的排名,英國仍是第一名,其次為美國、丹麥、挪威、荷蘭。從上述兩項研究報告中,英國在Open Data政策落實的成效受到高度肯定,而歐美地區仍在Open Data政策實行上領先世界其他地區的國家。   Open Data Barometer研究報告指出,目前各國政府傾向不提供具潛在爭議性的政府資料,但此類資料往往具再利用價值,例如政府財政預算及交易資料、公司登記、土地登記等相關資料。全球資訊網創始人Berners Lee表示,政府及企業不應考量提供資料集而無法收取費用,或有意掩蓋政治敏感之資料來保護政治利益,而對於公布會造就人民生活的重大進步但具爭議性之資料集,感到卻步。   目前多數國家開放資料之機器可讀性資料與資料集之免費授權(Open License)皆少於7%,報告中說明全球資料集實際可用性仍偏低,亦發現各國提供資料之收費不僅沒有效率,資料再利用授權關係也不明確,使得企業及使用者處在法律不確定之風險中。   全球面對開放資料的進展雖已有初步成效,但成功經驗仍集中在歐美國家,世界上其他國家在開放資料的可用性及近用性,仍與歐美國家有顯著差距,為能促進全球人民生活福祉及活絡商機,各國政府應更積極地執行開放資料政策,並持續改進。

美國商務部國家電信和資訊管理局呼籲透過第三方評測提高AI系統透明度

2024年3月27日,美國商務部國家電信和資訊管理局(National Telecommunications and Information Administration, NTIA)發布「人工智慧問責政策報告」(AI Accountability Policy Report),該報告呼籲對人工智慧系統進行獨立評估(Independent Evaluations)或是第三方評測,期待藉此提高人工智慧系統的透明度。 人工智慧問責政策報告就如何對人工智慧系統進行第三方評測提出八項建議作法,分別如下: 1.人工智慧稽核指引:聯邦政府應為稽核人員制定適合的人工智慧稽核指引,該指引須包含評估標準與合適的稽核員證書。 2.改善資訊揭露:人工智慧系統雖然已經應用在許多領域,但其運作模式尚缺乏透明度。NTIA認為未來可以透過類似營養標籤(Nutrition Label)的方式,使人工智慧模型的架構、訓練資料、限制與偏差等重要資訊更加透明。 3.責任標準(Liability Standards):聯邦政府應盡快訂定相關責任歸屬標準,以解決現行制度下,人工智慧系統造成損害的法律責任問題。 4.增加第三方評測所需資源:聯邦政府應投入必要的資源,以滿足國家對人工智慧系統獨立評估的需求。相關必要資源如: (1)資助美國人工智慧安全研究所(U.S. Artificial Intelligence Safety Institute); (2)嚴格評估所需的運算資源與雲端基礎設施(Cloud Infrastructure); (3)提供獎金和研究資源,以鼓勵參與紅隊測試的個人或團隊; (4)培養第三方評測機構的專家人才。 5.開發及使用驗證工具:NTIA呼籲聯邦機關開發及使用可靠的評測工具,以評估人工智慧系統之使用情況,例如透明度工具(Transparency Tools)、認驗證工具(Verification and Validation Tools)等。 6.獨立評估:NTIA建議聯邦機關應針對高風險的人工智慧類別進行第三方評測與監管,特別是可能侵害權利或安全的模型,應在其發布或應用前進行評測。 7.提升聯邦機關風險管控能力:NTIA建議各機關應記錄人工智慧的不良事件、建立人工智慧系統稽核的登記冊,並根據需求提供評測、認證與文件紀錄。 8.契約:透過採購契約要求政府之供應商、承包商採用符合標準的人工智慧治理方式與實踐。 NTIA將持續與利害關係各方合作,以建立人工智慧風險的問責機制,並確保該問責報告之建議得以落實。

TOP