近年來中國大陸政府為了資安考量,制訂相關法規要求外國科技公司進入中國大陸市場時必須提供程式原始碼,避免他方非法(例如利用病毒)透過電腦軟體進入中國大陸的系統和資料。
IBM公司近日發表聲明,允許特定國家在其嚴格的監控下,檢視其部份產品的軟體原始碼,確保產品沒有資訊安全的漏洞,中國大陸也在這些特定國家之列。這是美國重要的科技大廠,首次公開同意遵守中國大陸政府對於外國技術的資訊安全審查,然而此舉讓美國政府與其他矽谷科技公司頗有微詞。
IBM開放檢視其程式碼的對象為中華人民共和國工業與信息化部。IBM在聲明中表示,原始碼的檢視必須在IBM公司內,於無網路連線並受IBM安全應用程式監控的環境下進行,並保證這些軟體原始碼不會被釋出、被複製,或以任何方式改作。在嚴格的環境和時間限制下,IBM不會讓中國大陸政府有機會接觸其客戶資料庫,也不會涉及後門程式(back door)。至於會提供哪些產品的原始碼檢視,或中國大陸官方可檢視的時間有多長,IBM尚無明確說明。事實上IBM並非唯一提供程式碼的科技公司,微軟公司早在2003年即允許中國大陸、俄國、英國等國家檢視微軟Windows部分產品的原始碼。
有市場分析公司指出,IBM為降低智慧財產權被複製的風險,所釋出的原始碼可能只涉及基本功能,不包含專有的演算碼,且像IBM此類的公司,應該擁有閉源軟體(closed-source)或特別的軟體以嚴密地維護底層的原始碼,避免中國大陸政府藉由檢視原始碼執行反向工程(Reverse Engineering)。
IBM公司願意提供中國大陸政府檢視部分產品原始碼,目的在於展示其產品安全性,試圖擴展IBM在中國大陸的商業版圖。IBM旗下的雲端運算平台Bluemis未來將與中國大陸的數據中心服務公司—北京世紀互聯寬帶數據中心有限公司合作。該公司同時也是微軟在中國大陸的合作夥伴。
2018年1月加拿大參議院交通與通訊委員會(Standing Senate Committee on Transport and Communications)向加拿大交通部提出「駕駛改革:技術與自駕車的未來(Driving Change : Technology And The Future Of The Automated Vehicle)」報告。 報告指出加拿大面臨自駕車可能遭遇之挑戰,並列出提供交通部發展自駕車策略之政策建議。 其中包含:建議加拿大應成立跨部會單位以整合全國自駕車政策、並整合各地方政府與傳統領域政府透過發展地區模型策略;交通部並應與美國合作,來確保自駕車輛於兩國間運行無障礙;交通部應發展自駕聯網車輛設計的車輛安全指南,指南中應指明製造商於發展、測試與布建自駕車的車輛應有的設計需求,該指南並應持續隨科技發展而更新。 加拿大政府並應立法授權隱私委員會主動調查與促使製造者遵循「個人資訊保護與電子文件法(Personal Information Protection and Electronic Documents Act)」的權力,並應持續評估聯網車輛的隱私相關規範之需求。 並應整合利益關係人發展聯網車輛管制框架,特別應包括隱私保護;並應監督自駕與聯網車輛技術競爭之影響,以確保車輛出租公司與其他的延伸市場可持續取得相關營業所需資訊;並應注重加拿大自駕車之測試與發展等對於就業之影響等。
美國發布關於標準必要專利之政策宣言草案,擬修改核發禁制令態度美國司法部(United States Department of Justice)、美國專利商標局(The United States Patent and Trademark Office)、美國國家標準與技術研究院(National Institute of Standards and Technology)於2021年12月6日共同發布「修改『標準必要專利』授權協議及司法救濟方法之政策宣言草案」(Draft Policy Statement On Licensing Negotiations And Remedies For Standards-Essential Patents Subject To Voluntary FRAND Commitments,下稱2021政策宣言草案),並徵集公眾意見,截止時間為2022年2月4日。2021政策宣言草案係在回應2021年7月9日「促進美國經濟體競爭性行政命令」(Executive Order on Promoting Competition in the American Economy)關於檢討2019年「有關『標準必要專利』司法救濟方法之政策宣言」(Policy Statement On Remedies For Standards-Essential Patents Subject To Voluntary FRAND Commitments,下稱2019政策宣言)之要求。 2021政策宣言草案揭示了兩大重點: (一)改變SEP被侵害時,對禁制令(injunction)之核發態度 2021政策宣言草案對於「SEP被侵害時,是否核發禁制令」一事,擬回歸適用聯邦最高法院自eBay Inc. v. MercExchange, L.L.C., 547 U.S. 388 (2006)案以來,就禁制令之核發所設立之原則—(1)原告(專利權人)會因專利侵權而遭受無法填補(irreparable)的損害;(2)目前法律上之其他救濟方法,是不足以賠償專利權人所受的損害;(3)衡量專利權人及被授權人可能遭遇之困難,足認有必要進行衡平法上的救濟;(4)核發禁制令不會傷害到任何公共利益。 (二)揭示何謂符合「誠信原則」(good-faith)授權協議的指導原則 (1)雙方應以合宜態度推進授權協議: 以SEP專利權人而言,其應向潛在被授權人告知可能侵害該SEP的行為態樣;其並以「公平、合理及無歧視」(fair, reasonable, and non-discriminatory, FRAND)原則進行授權。 以SEP被授權人而言,其應於知悉以上資訊後,於商業上得被認為合理的時間內,以合宜態度推進該協議,或逕自接受該授權協議,或拒絕原要約而反向提出一合於FRAND原則之新要約(counteroffer)。其他合宜態度例如:就SEP專利權人提出進一步探詢(例如:詢問該SEP目前之專利有效性及有無侵權情形)或請求提供更具體的資訊,或建議目前雙方所遇到的授權上爭議可透過公正第三方解決。 茲有附言者,SEP專利權人在收到以上回應後,亦應「於合理的時間以合宜態度」推進授權協議,例如接受被授權人反向提出之新要約,或為使原授權協議較可被接受,再行提出一合於FRAND原則之授權條款,或回應被授權人想得知更多資訊之請求,或亦提出「可透過公正第三方解決雙方所遇到之授權紛爭」的方案等。 (2)雙方應合宜妥善解決紛爭: 如雙方因授權而生紛爭,建議尋求替代爭議解決方式(alternative dispute resolution);如仍欲透過司法解決,建議雙方就管轄法院達成合意,而非單方面擇定法院而提起訴訟。 此次徵求公眾意見的主要議題如下: (1)2021政策宣言草案是否較可適當平衡SEP專利權人及被授權人之利益? (2)「可申請核發禁制令」一事是否為SEP專利權人願意遵守FRAND原則的重要因素? (3)如何提升SEP授權協議之效率及透明度? (4)2021政策宣言草案所揭示對於SEP授權時之「誠信原則」之指導原則,可否為SEP授權協議建構良好架構? (5)是否有潛在SEP被授權人願意及不願意接受FRAND授權協議之情形? (6)有關單位是否曾經或應就SEP授權協議提供其他參考資訊?
日本國土交通省航空局公布日本無人機飛行安全指引日本國土交通省航空局於2017年9月12日公布修正版日本無人機飛行安全指引(「無人航空機(ドローン、ラジコン機等)の安全な飛行のためのガイドライン」を改定しました),乃依據修正之航空法規定(平成27年法律第67號)制訂無人機飛行之相關基本規則。 定義所謂無人機乃指非人搭乘,透過遠距遙控或自動駕駛而飛行之飛機、旋翼飛機、滑翔機及飛艇。而無人機禁止飛行在150公尺以上高空,不得在航空站周邊空域(包含進入),以禁止在人口集中地區之上空(150公尺以下)。 除經國土交通省同意之例外規則外,無人機之飛行必須在日出後日沒前,且需在直接肉眼目視範圍內之監視下,與第三人或他人建築物、車輛等物體應距離30公尺以上,並不得在祭拜或假日等人群聚集之場所上空飛行,也不得輸送爆裂物等危險物品,亦不得從無人機上投擲物品。另外應注意事項,例如飛行場所除了航空站周邊外,直升機等降落可能之場所、迫降場所、高速公路或高速鐵路等、鐵路周邊或車道周邊等、高壓電線、變電所、電波塔及無線電設施等附近應注意飛行安全。 於飛行之際,不得飲酒等造成不當操作,飛行前應注意天氣狀況、飛機無損害或故障、電池燃料充足等,並確保周邊無障礙物,並應迴避與飛機或無人飛機之衝突。平時應保持無人機之狀況良好,且維持日常操作良好技能,並鼓勵投保人身或財產保險。
美國國防部「人工智慧國防運用倫理準則」美國國防部(Department of Defense)於2020年2月採納由美國國防創新委員會(Defense Innovation Board, DIB)所提出之「人工智慧國防運用倫理準則(AI Principles: Recommendations on the Ethical Use of Artificial Intelligence by the Department of Defense)」,以衡平倫理與人工智慧於國防帶來之增益。 美國國防創新委員會為美國聯邦政府下之獨立委員會,設置目的在於依美國新創科技,提供意見予美國國防部,與美國國防部並無隸屬關係。有鑑於人工智慧之運用範疇日益增廣,美國國防創新委員會遂提出旨揭「人工智慧國防運用倫理準則」,以因應人工智慧於國防之應用所產生之問題。 倫理準則適用於「戰爭或非戰爭用途之人工智慧之設計以及應用」,對於「人工智慧」之定義,倫理準認為人工智慧並無精確之範疇,只要「對於資訊有所處理並旨在達到所賦予任務之資訊系統」,皆為本準則下之人工智慧。倫理準則指出,「人工智慧」與美國國防部3000.09指令下之「自動化武器系統(Autonomous Weapon System)」之定義不同,但有可能重疊,而所謂「自動化武器系統」為「一經人類選擇啟動,即可在無人類監督之情形下,自動針對目標進行鎖定或進行攻擊之自動化武器系統」。 美國國防創新委員會表示,該準則旨在切合美國既有憲法、法律、國際公約之傳統標準下,融入現代化對於人工智慧之要求,如國際公約中之戰爭法(Law of War)即為本準則之傳統標準之一,舉例而言,如人工智慧被裝置於武器中,其設計及應用應符合最小傷亡原則、避免傷及無辜原則等。 除此之外,準則亦包含以下現代化對於人工智慧之要求:(1)人類對於人工智慧系統之設計、應用以及使用應善盡判斷以及注意義務,且人類應該對於人工智慧系統因瑕疵所帶來之傷害負擔最終責任;(2)對於目標之選擇或分類,應維持公平性,且不得有歧視性;(3)對於人工智慧之設計、應用以及使用,應有明確之工程標準以及資料保存程序,此一工程標準以及資料保存程序應為一般具有專業知識之工程人員可據以理解、分析、追蹤問題所在並加以改善;(4)「戰爭或非戰爭用途之人工智慧」應有明確之應用領域,且完善之檢測、維修,應適用於該人工智慧之全部生命週期。