2016年11月澳洲國家交通委員會(簡稱NTC)公布「自駕車政策革新報告」(Regulatory reforms for automated road vehicles Policy Paper),當中釐清對自駕車各項可能遭遇的法規障礙並設定修正時程,2017年4月16號NTC並進一歩依前份文件規劃提出「控制自駕車相關規範建議」討論文件,釐清自駕車的控制定義與相對應規範,並提出法制規範修正內容。
2016年澳洲政府並通過了關於陸路交通科技的「政策原則」(Policy Principles),其中包括政府決策時應基於改善交通安全、效率、永續發展和成果的可能實現,並且應以消費為中心等原則,這些原則構成了澳洲政府的政策框架。
澳洲NTC此份討論文件中,提出應釐清能「控制(in control)」自駕車的對象,此將影響自駕車事故的負責人為誰。NTC提出目前仍應定義人類駕駛為控制自駕車的一方而非自駕系統,以避免人類駕駛做出不適當的操作行為。
NTC並釐清「恰當控制」的定義。「恰當控制」為澳洲道路法規第297條第1項:「駕駛者不得駕駛車輛除非其有做出恰當控制」中所規範。恰當控制被目前的執法機關詮釋為駕駛者應坐在駕駛座上並至少有一隻手置於方向盤上。但「恰當控制」將因自動駕駛系統的操作方式受到挑戰。因此NTC認為「恰當控制」不一定需要將手置於方向盤上,而是要有足夠的警覺性和能即時進行干涉,此定義並應隨著科技發展而修正。
本次政策文件意見徵詢至2017年6月2日,收到意見後NTC將會意見納入未來的全國性實施政策方針,提交給澳洲交通與基礎建設諮議會(Transport and Infrastructure Council)通過,預計於2017年年底前完成此自駕車方針。
本文為「經濟部產業技術司科技專案成果」
日本經濟產業省於2018年召開「IoT和AI可能衍生之新型態交通服務研究會」(IoTやAIが可能とする新しいモビリティサービス関する研究会),並於2019年4月公布「朝向新型態交通服務之活性化」(新しいモビリティーサービスの活性化に向けて)報告;國土交通省亦自2018年底起召開「都市與地方新型態交通服務懇談會」(都市と地方の新たなモビリティサービス懇談会),於2019年3月公布中間結果。經產省和國土省根據上述會議結論,自2019年4月起,發起支援地方政府挑戰推動新型態交通服務之新計畫「智慧交通挑戰」(スマートモビリティチャレンジ)。 「智慧交通挑戰」計畫之目的,在於促使地方政府與企業合作,以實現自動駕駛社會,並透過新型態交通服務解決既有交通問題和加速地方活性化,其具體措施包括︰(1)透過設置「智慧交通挑戰推進協議會」及舉辦論壇,促進地方政府和企業間共享資訊,形成工作網路;(2)經濟產業省補助新型態交通服務實用化、計畫制定和效果分析等計畫;(3)國土交通省補助MaaS等新型態交通服務實驗,以及建構以解決地區交通服務為目的之模型等計畫。經產省與國土省分別自4月起對外公開募集提案,最終於75個提案中選出28個計畫,將於今年起陸續施行。
美國能源系統需求面管理法制議題之探討 跨國企業呼籲印度政府加強營業秘密保護印度納倫德拉.莫迪(Narendra Modi)政府為了吸引外資,鼓勵跨國企業在印度設立研發單位,目前該國商工部產業政策暨推廣司(Department of Industrial Policy & Promotion)正在研擬新的智財權政策。對此,英特爾日前去函相關權責部門,呼籲印度政府加強營業秘密保護,俾以增加投資者信心,吸引更多外資,甚至要求對竊取者科以刑責,藉此嚇阻不法。 印度目前僅透過普通法及契約法相關原則保護營業秘密,並未如同其他智慧財產權制定專法,使得外國公司不願與在地企業分享知識及技術。英特爾表示,當印度的資訊科技及創新持續成長時,有必要捨棄英國僅以契約保護的模式,透過法律科以相當刑責,確立營業秘密作為智慧財產權的地位。並補充道,營業秘密保護對於新設公司而言也很重要,因為它們可能沒有足夠的資源,就其研發及創新申請專利。 美國貿易代表Micheal Froman在雙邊貿易政策論壇中,也向印度商工部部長Nirmala Sitharaman提出相關議題,但印度政府認為現有法制已足敷使用,僅允諾將與美方代表交換法律文件,以便瞭解彼此法律規定。另名政府官員更明白表示,只不過因為美國最近頒行了統一營業秘密法(Uniform Trade Secret Act),並不表示印度也應該跳上同一艘船。
世界衛生組織公布「人工智慧於健康領域之倫理與治理」指引世界衛生組織(World Health Organization, WHO)於2021年6月底公布「人工智慧於健康領域之倫理與治理」(Ethics and governance of artificial intelligence for health)指引。目前人工智慧於在改善診斷、治療、健康研究、藥物開發及公共衛生等健康領域皆有廣泛之應用與前景,而該指引首先指出人工智慧應用於健康領域中最相關之法律與政策外,並強調相關應用皆須以「倫理」及「人權」作為相關技術設計、部署與使用之核心,最後則提出人工智慧應用於健康領域之六大關鍵原則: 一、保護人類自主性(autonomy):本指引認為人類仍應該掌有關於醫療保健系統之所有決定權,而人工智慧只是輔助功能,無論是醫療服務提供者或患者皆應在知情之狀態下作決定或同意。 二、促進人類福祉、安全與公共利益:人工智慧不應該傷害人類,因此須滿足相關之事前監管要求,同時確保其安全性、準確性及有效性,且其不會對患者或特定群體造成不利影響。 三、確保透明度、可解釋性與可理解性(intelligibility):開發人員、用戶及監管機構應可理解人工智慧所作出之決定,故須透過記錄與資訊揭露提高其透明度。 四、確立責任歸屬(responsibility)與問責制(accountability):人工智慧在醫學中所涉及之內部責任歸屬相當複雜,關於製造商、臨床醫師及病患間相關之問責機制之設計將會成為各國之挑戰,故須存在有效之機制來確保問責,也應避免責任分散之問題產生。 五、確保包容性(inclusiveness)與衡平性(equity):應鼓勵應用於健康領域之人工智慧能被廣泛且適當地使用,無論年齡、性別、收入及其他特徵而有差別待遇,且應避免偏見之產生。 六、促進具適應性(responsive)及可持續性之人工智慧:人工智慧應符合設計者、開發者及用戶之需求與期待,且能充分具適應性之回應且符合使用環境中之要求。