日本首相安倍晉三於2017年5月16日在官邸舉行智慧財產戰略本部(知的財産戦略本部)會議,並正式頒布「2017智慧財產推動計畫(知的財産推進計画2017)」。為因應大數據(ビッグデータ)、人工智慧(人工知能)等相關先進科技議題,透過調整產官學資源,培育地方中小企業智慧財產基礎認知,保護高附加價值農產品品種,振興觀光及影視等文化產業,提昇國家綜合競爭力,構築第4次產業革命(society5.0)之基礎。該會議中,所發表「2017智慧財產推動計畫」之三大基礎政策面向分別為:
一、建構第4次產業革命之智慧財產系統
(一) 充分利用、活用資訊及人工智慧以強化產業競爭力:
(二) 智慧財產系統基礎之準備:
(三) 推動引領全球之智慧財產制度及相關標準化:
二、活用智慧財產之潛力,推動區域活絡與發展
(一)積極活用強化農林漁業、食品業等智慧財產:
(二) 活用地方中小企業智慧財產,並推廣產學及產業間之互助:
(三) 每一位國民都是智慧財產人才,推動智財教育:
三、2020年大放異彩之日本
(一)海外推廣和產業基地之加強:
(二)振興電影產業:
(三)構築資料庫:設立跨部門之窗口,在產官學共同協助下活用研究成果、及商業化。
這個推動計畫乃是與「總合科學技術革新會議(総合科学技術・イノベーション会議)」及「IT總合戰略總部(IT総合戦略本部)」等共同合作,並結合「資訊利用促進基本計畫(官民データ活用推進基本計画)」(以「科學技術基本計畫」、「科技創新綜合戰略(科学技術イノベーション総合戦略)」、「資訊利用促進基本法(2016第103號法律)」等為基礎所發展的新計畫),在智慧財產戰略總部的主導下進行推動,積極穩健的落實智慧財產價值之保護、智財潛力活用及地方革新推動、日本文化之集結及向世界傳達日本的新文化價值等三大目標,以達到國家的發展戰略中,智慧財產戰略政策之最大使命。
由於開放原始碼的風氣盛行,使得許多 軟體業者 在使用開放原始碼軟體開發自家的軟體產品時,常不小心 逾越開放原始碼的授權範圍而陷身於 侵權的風險中。大抵一般比較常見的侵權情形,如企業開發專有軟體時, 利用單一或多樣以上的開放原始碼元件來建置,如交易工具或財產庫存管理應用程式等,而將這些程式流通於內部企業網路或是傳遞給外部客戶使用時,已構成”散佈”行為,是觸犯了開放原始碼 GPL ( General Public License ,通用公共許可 )授權 。 日前位於紐約的 開放原始碼風險管理公司( Open Source Risk Management , OSRM )結合 Lloyd's 保險業者 Kiln 及 Miller 保險經紀公司推出開放原始碼保單來承擔企業使用開放原始碼的風險,該保險單最高賠償金額為 1000 萬美元。平均而言,企業若是投保 100 萬美元的保單,每年大約必須支付 2 萬美元的保險費。
美國聯邦貿易委員會插手企業資訊安全引起爭議美國聯邦貿易委員會(Federal Trade Commission, FTC)於2013年8月29日對位於亞特蘭大的一家小型醫療測試實驗室LabMD提出行政控訴,指控LabMD怠於以合理的保護措施保障消費者的資訊(包括醫療資訊)安全。FTC因此依據聯邦貿易委員會法(Federal Trade Commission Act, FTC Act)第5條展開調查,並要求LabMD需強化其資安防護機制(In the Matter of LabMD, Inc., a corporation, Docket No. 9357)。 根據FTC網站揭示的資訊,LabMD因為使用了點對點(Peer to Peer)資料分享軟體,讓客戶的資料暴露於資訊安全風險中;有將近10,000名客戶的醫療及其他敏感性資料因此被外洩,至少500名消費者被身份盜用。 不過,LabMD反指控FTC,認為國會並沒有授權FTC處理個人資料保護或一般企業資訊安全標準之議題,FTC的調查屬濫權,無理由擴張了聯邦貿易委員會法第5條的授權。 本案的癥結聚焦於,FTC利用了對聯邦貿易委員會法第5條「不公平或欺騙之商業行為(unfair or deceptive acts)」的文字解釋,涉嫌將其組織定位從反托拉斯法「執法者」的角色轉換到(正當商業行為)「法規與標準制訂者」的角色,逸脫了法律與判例的約束。由於FTC過去曾對許多大型科技公司(如google)提出類似的控訴,許多公司都在關注本案後續的發展。
美國FCC針對飛機上使用無線通訊服務之規則展開諮詢美國聯邦通信委員會(Federal Communications Commission,FCC)於2013年12月發佈法規命令制訂通知(Notice of proposed rulemaking,NPRM),將制訂規則以允許航空公司在飛機上安全地提供無線通訊服務,FCC並將諮詢公眾建議,考量消費者權益與相關產業影響。目前公布的規則,在公眾諮詢期間後,將放寬航空公司於飛行中提供通訊服務的管制,也包括以前受管制的無線頻段。 該規則的基本原則是,航空公司必須選擇裝設經過認證的服務設備,以防止飛機與地面通訊的有害干擾,在干擾得以適當控制之下,航空公司將能提供乘客的無線寬頻網路,包括網際網路、電子郵件、文字通訊以及各種類型的語音服務。新管制規則也將提升航空公司機艙內通訊的品質。根據建議,個別航空公司以自律為原則,遵守FCC、美國聯邦航空管理局(FAA)和運輸部(DOT)的規定,決定是否要在飛機上提供行動通訊無線服務,並且決定提供哪些服務。 如果一家航空公司選擇安裝新的通訊設備,便能提供消費者使用他們的行動裝置的完整通訊功能,航空公司必須公布哪些航班有提供服務、有什麼類型的服務,例如是否允許網路瀏覽、電子郵件、即時通訊等,但不包含語音通話。 以下簡介FCC本次發佈的規則方向: 1. 開放更多無線頻譜的使用,移除既有的對於飛機上使用無線頻譜的嚴格限制。協調所有商用航空器相關的頻譜與設備的管制規範。 2. 暫不開放語音通訊服務(含傳統語音服務以及網路電話VOIP)。3. 為航空公司使用商用無線頻譜在飛機上提供無線通訊服務,提供新的執照授權。 4. 限制飛行器上裝設之無線通訊設備,必須通過美國運輸不或美國航空管制局(FAA)所認證之設備,以管制機上裝置的發射功率及電力需求。 5. 限制飛機在超過海拔3048公尺(約10,000英尺)以上高度飛行時,提供無線通訊服務的能力。 6. 其他有關法律管制架構、公眾及國家安全,以及潛在的語音服務影響之事項。
德國聯邦資訊技術,電信和新媒體協會針對AI及自動決策技術利用提出建議指南德國聯邦資訊技術,電信和新媒體協會於2018年2月6日在更安全的網路研討會中針對利用人工智慧及自動決策技術利用提出建議指南(Empfehlungen für den verantwortlichen Einsatz von KI und automatisierten Entscheidungen),旨在提升企業數位化與社會責任,並提升消費者權益保護。 本份指南提出六項建議: 促進企業內部及外部訂定相關準則 例如規定公司在利用演算法和AI時,必須將影響評估列入開發流程,並列為公司應遵守的道德倫理守則,以確保開發的產品或服務符合公平及道德。 提升透明度 使用者如有興趣了解演算法及其含義,企業應協助調查並了解使用者想獲知的訊息,並透過相關訊息管道提升產品及服務透明度。因此,企業應努力使演算法及其操作和含義能夠被使用者理解。此亦涉及即將實施的歐盟一般資料保護規則中的透明度義務。在機器學習或深度學習情況下,可能會增加理解性和可追溯性難度,但有助於分析流程並使其更接近人類理解的方法在科學和商業實踐中,應特別關注並進一步討論。另外,透過教育及使用說明協助及控制功能,教導消費者係建立雙方信任的重要手段。企業應在第一線中說明產品或服務中使用的手段(演算法,機器學習,AI)。除了解釋使用那些技術來改進產品和服務外,應一併解釋如何從技術控制過程中獲得相關知識以及提供那些後援支持。另外,例如透過幫助頁面,儀表板或部落格,解釋發生什麼以及如何做出某些影響深遠的自動化決策,使用戶更了解有關使用自動決策相關訊息。因此建議企業採取強制有效以建立信任的措施,使用戶理解是否及如何使用相關演算法,此可能包括使用自動化決策,使用特定資料組和使用技術的目的,亦即使用戶對演算法,機器學習或AI支持的決策有基本的了解。 為全體利益使用相關技術 人工智慧等新技術之重要性不應被低估,目前在生活和工業等眾多領域皆有廣泛應用。對於個人和集體而言,將可帶來巨大的利益,因此應該充分利用。例如,人工智慧可降低語言障礙,幫助行動不便的人可更加獨立自主生活,改善醫療診斷,提升能源供應效率,甚至是交通規劃和搜索停車位,都只是人工智慧偉大且已被使用的案例。為促進技術發展,應公平地利用其優勢並預留商業應用模式的空間,同時充分解決涉及的具體風險。產業特定的解決方案十分重要,但應兼顧受影響者的利益,並與廣大公眾利益找出妥協平衡點,且應排除不適當的歧視。建議在使用決策支持技術時,應事先檢查相關後果並與其利益比較。例如,可以在資料保護影響評估的框架進行。作為道德準則的一部分,必須確保演算法盡可能量準確地預測結果。 開發安全的資料基礎 資料係人工智慧支援決策的基礎。與人為決策者相同,資料不完整或錯誤,將導致做出錯誤的決定。因此決策系統的可靠性仍取決資料的準確性。但資料質量和資料來源始終不能追溯到源頭,如果可能的話,只有匯總或非個人資料可用於分析或分類用戶群組。因此,確切細節不可被使用或揭露。因此建議企業應考慮要使用的資料、資料的類別和在使用AI系統前仔細檢查資料使用情況,特別是在自我學習系統中資料引入的標準,並根據錯誤來源進行檢查,且儘可能全面記錄,針對個人資料部分更應謹慎處理。 解決機器偏差問題 應重視並解決所謂機器偏差和演算法選擇和模型建立領域的相關問題。解釋演算法,機器學習或AI在基層資料選擇和資料庫時所產生決策偏見相當重要,在開發預期用途的演算法時必須納入考量,對員工應針對道德影響進行培訓,並使用代表性紀錄來創建可以識別和最小化偏差的方法。企業並應該提高員工的敏感度並培訓如何解決並減少機器偏見問題,並特別注意資料饋送,以及開發用於檢測模式的內、外部測試流程。 適合個別領域的具體措施和文件 在特別需要負責的決策過程,例如在車輛的自動控制或醫療診斷中,應設計成由責任主體保留最終的決策權力,直到AI的控制品質已達到或高於所有參與者水平。對類人工智慧的信任,並非透過對方法的無條件追踪來實現,而是經過仔細測試,學習和記錄來實現