芬蘭科學院(Academy of Finland, AOF)是隸屬於芬蘭教育、科學及文化部的專業研究資助機構,旨在促進芬蘭科學研究的多樣化及國際化,資助前端突破性科學研究,提供科學技術及科學政策的專業知識,並加強科學研究的地位。芬蘭科學院最高決策單位為七人委員會,委員會主席由科學院院長出任。
底下設有:文化與社會、自然科學與工程、健康醫學以及環境與自然資源四個研究委員會。每一委員會設主席一人委員十人,任期三年。行政單位由大約一百位專家組成,主要工作為準備及執行七人委員會及各研究委員會的各項工作與決策,並撰寫科學報告和研究計畫。
其任務包括獎助大學與研究機構內的科學研究工作與團隊、參與多邊研究計畫的規劃與獎助、資助芬蘭研究人員參與國際研究計畫、評估科研計畫的品質及水準,以及科技政策專業諮詢等。研究範圍涵蓋建築、太空研究、細胞生物和心理學到電子和環境科學研究。
本文為「經濟部產業技術司科技專案成果」
隨著人工智慧快速發,各界開始意識到人工智慧系統應用、發展過程所涉及的倫理議題,應該建構出相應的規範。IBM於2018年9月02日提出了「人工智慧日常倫理」(Everyday Ethics for Artificial Intelligence)手冊,其以明確、具體的指引做為系統設計師以及開發人員間之共同範本。作為可明確操作的規範,該手冊提供了問責制度、價值協同、可理解性等關注點,以促進社會對人工智慧的信任。 一、問責制度(Accountability) 由於人工智慧的決策將作為人們判斷的重要依據,在看似客觀的演算系統中,編寫演算法、定義失敗或成功的程式設計人員,將影響到人工智慧的演算結果。因此,系統的設計和開發團隊,應詳細記錄系統之設計與決策流程,確保設計、開發階段的責任歸屬,以及程序的可檢驗性。 二、價值協同(Value Alignment) 人工智慧在協助人們做出判斷時,應充分考量到事件的背景因素,其中包括經驗、記憶、文化規範等廣泛知識的借鑑。因此系統設計和開發人員,應協同應用領域之價值體系與經驗,並確保演算時對於跨領域的文化規範與價值觀之敏感性。同時,設計師和開發人員應使人工智慧系統得以「了解並認知」用戶的價值觀,使演算系統與使用者之行為準則相符。 三、可理解性(Explainability) 人工智慧系統的設計,應盡可能地讓人們理解,甚至檢測、審視它決策的過程。隨著人工智慧應用範圍的擴大,其演算決策的過程必須以人們得以理解的方式解釋。此係讓用戶與人工智慧系統交互了解,並針對人工智慧結論或建議,進而有所反饋的重要關鍵;並使用戶面對高度敏感決策時,得以據之檢視系統之背景數據、演算邏輯、推理及建議等。 該手冊提醒,倫理考量應在人工智慧設計之初嵌入,以最小化演算的歧視,並使決策過程透明,使用戶始終能意識到他們正在與人工智慧進行互動。而作為人工智慧系統設計人員和開發團隊,應視為影響數百萬人甚至社會生態的核心角色,應負有義務設計以人為本,並與社會價值觀和道德觀一致的智慧系統。
德國汽車製造商擁有德國境內大部分的自駕車專利根據德國專利商標局(Deutsches Patent- und Markenamt)2017年度報告,德國該年境內發明專利申請量達67,707件,僅較2016年下降0.3%(2016年專利申請量達歷年新高),主要領域在交通;而新型專利和設計專利申請量卻持續下降。歷年申請量如下表: (件數) 2017 2016 2015 2014 2013 2012 2011 發明 專利 67,706 67,907 66,898 65,963 63,177 61,361 59,612 新型 專利 13,299 14,030 14,271 14,741 15,470 15,531 16,038 設計 專利 44,297 57,057 58,017 60,837 56,944 55,250 53,197 資料來源:德國專利商標局 其中,德國汽車公司投資在電動汽車、輔助系統和自動駕駛等領域數十億元的成果在發明專利中被充分反映出來。根據德國專利商標局2017年度報告,該年自動駕駛專利申請數量有2,633件,較2016年增加14%,是2013年的兩倍。 在德國4,810件自動駕駛專利中,德國汽車公司就擁有超過2,006件,占42%,日本為28%,美國為11%。僅2017一年,德國汽車公司就取得325件自動駕駛專利,較日本公司259件、美國公司112件和法國公司的41件還多。其中絕大多數被Audi、Toyota和Volkswagen所擁有。 此外,德國境內電動汽車專利申請也增加10%,總數達到3,410件,超過三分之一是用於蓄電池和燃料電池,德國汽車公司高居專利申請量榜首,其中以Bosch和Schaeffler為最。 事實上,除了在德國境內,全球自動駕駛專利幾乎一半亦為德國汽車公司所擁有,截止至2017年底,占了48.8%,其中Bosch排名第一,共擁有1,101件專利。前十名專利擁有者如下圖: 單位:件 資料來源:德國經濟研究所(Institut der deutschen Wirtschaft) 「本文同步刊登於TIPS網站(https://www.tips.org.tw)」
英國最高法院Unwired Planet v Huawei案認定英國法院有權決定FRAND全球專利組合授權條款英國最高法院於2020年8月26日,駁回華為與中興通訊在Unwired Planet v Huawei和Conversant v Huawei and ZTE案的上訴決定。美國公司Unwired Planet和Conversant控訴華為及其他智慧手機製造商,侵害其所擁有的英國專利技術,其中包含由國際標準制定組織(Standard Setting Organization, SSO)與歐洲電信標準協會(European Telecommunications Standards Institute, ETSI)所制定的2G、3G及4G無線通訊標準必要專利(Standards Essential Patents, SEP)。依據ETSI智慧財產權政策(Intellectual Property Policy, IPR),SEP權利人必須以公平、合理和無歧視條款(Fair, Reasonable and Non-discriminatory, FRAND)向實施者進行授權。英國最高法院根據ETSI政策所制定的契約內容,應賦予英國法院管轄權,更能決定多國專利組合的全球授權條款。若華為拒絕支付法院認定的FRAND全球授權金,法院將會頒布禁制令,禁止華為在英國銷售侵權產品。 首先,關於本案管轄權爭議,最高法院認為,在沒有雙方協議管轄的情況下,英國法院具有本案管轄權,得發給禁制令並確定專利授權費率等授權條件。原則上,專利有效性與侵權爭議,應由授予專利的該國法院決定,然而本案依據ETSI智慧財產權政策所訂定的契約,已約定由英國法院管轄,並得決定包括外國專利在內的專利組合授權條款。 另外,本案關於FRAND無歧視爭議,係源於華為主張Unwired Planet先前給予Samsung較低的授權費率,對華為構成歧視性授權。最高法院認為,Unwired Planet未違反FRAND無歧視承諾,蓋依據ETSI智慧財產權政策,FRAND無歧視並非硬性(hard-edged)要求前後授權費率完全一致,而是指所有市場參與者,基於專利組合的市場價值,都能取得專利授權使用的合理權利金價格表,絕非強制SEP所有人對類似條件的被授權人提供相同的授權條件。本案法院也認同,基於經濟或商業實務上的習慣,調整個別授權金,並未違反ETSI智慧財產權政策的無歧視要求。
美國勞工部發布「人工智慧及勞工福祉:開發人員與雇主的原則暨最佳實務」文件,要為雇主和員工創造雙贏.Pindent{text-indent: 2em;} .Noindent{margin-left: 2em;} .NoPindent{text-indent: 2em; margin-left: 2em;} .No2indent{margin-left: 3em;} .No2Pindent{text-indent: 2em; margin-left: 3em} .No3indent{margin-left: 4em;} .No3Pindent{text-indent: 2em; margin-left: 4em} 美國勞工部(Department of Labor)於2024年10月發布「人工智慧及勞工福祉:開發人員與雇主的原則暨最佳實務」(Artificial Intelligence and Worker Well-Being: Principles and Best Practices for Developers and Employers)參考文件(下稱本文件)。本文件係勞工部回應拜登總統2023年在其《AI安全行政命令》(Executive Order on the Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence)中對勞工的承諾,作為行政命令中承諾的一部分,本文件為開發人員和雇主制定如何利用人工智慧技術開展業務的路線圖,同時確保勞工可從人工智慧創造的新機會中受益,並免受其潛在危害。 本文件以八項AI原則為基礎,提出最佳實踐作法,其重點如下。 1. 賦予勞工參與權(empowering workers):開發人員和雇主履行各項原則時,應該秉持「賦予勞工參與權」的精神,並且將勞工的經驗與意見納入AI系統整個生命週期各環節的活動中。 2. 以合乎倫理的方式開發AI系統:開發人員應為AI系統建立標準,以利進行AI系統影響評估與稽核,保護勞工安全及權益,確保AI系統性能符合預期。 3. 建立AI治理和人類監督:組織應有明確的治理計畫,包括對AI系統的人類監督機制與定期評估流程。 4. 確保AI使用透明:雇主應事先告知員工或求職者關於AI系統之使用、使用目的及可能影響。雇主及開發人員應共同確保以清晰易懂的方式公開說明AI系統將如何蒐集、儲存及使用勞工的個資。 5. 保護勞工和就業權利:雇主使用AI系統時,除應保障其健康與安全外,不得侵犯或損害勞工的組織權、法定工資和工時等權利。 6. 使用AI以提升勞工技能(Enable Workers):雇主應先了解AI系統如何協助勞工提高工作品質、所需技能、工作機會和風險,再決定採用AI系統。 7. 支援受AI影響的勞工:雇主應為受AI影響的勞工提供AI技能和其他職能培訓,必要時應提供組織內的其它工作機會。 8. 負責任使用勞工個資:開發人員和雇主應盡責保護和處理AI系統所蒐集、使用的勞工個資。