MIC資料顯示,台灣自由軟體產業軟硬體的相關產值從2003年的135億,至今年可望成長至新台幣290億。如果單看自由軟體的產值,今年可望超過新台幣12億,較去年成長26%。
資策會表示,在政策推動下,自由軟體的需求面有逐漸增加的趨勢。就市場整體來看,我國自由軟體產業的產值,今年上半年達到新台幣5億9000萬,全年將超過12億,達到12億3700萬,而從2002年至2006年,台灣自由軟體產業軟體產值的年複合成長率高達55%。
預期到2007年,自由軟體產值可望達新台幣100億元,投入軟體開發廠商將達50%,而政府單位的個人電腦使用比例可望達到10%。
本文為「經濟部產業技術司科技專案成果」
美國通用汽車公司(General Motors,下稱通用汽車)於2018年01月間向美國運輸部(United States Department of Transportation)遞出請求展示雪弗蘭(Chevrolet)第4代自動駕駛車(此款車種無裝備方向盤與踏板,號稱世界上第一輛可以自我安全駕駛,且無需人類介入駕駛的車輛)的申請,不久後關於以下車禍事件的訴訟即遭提起。 根據Oscar Willhelm Nilsson(即原告,下稱Nilsson)於2018年01月22日向美國舊金山區地方法院針對前開車禍事件提起訴訟的主張,於2017年12月07日早上,其在加州舊金山Oak Street的中央車道上騎乘機車往東行駛,Manuel DeJesus Salazar(即被告,下稱Salazar)於同時地駕駛由通用汽車製造之Chevrolet Bolt vehicle(下稱自駕車),並開啟自動駕駛模式且雙手放開方向盤。Nilsson原騎乘於自駕車後方,不久,自駕車自Nilsson正前方變換車道至左側,Nilsson則繼續筆直前行,但自駕車又隨即往回駛入Nilsson直行騎乘的車道,因此撞擊Nilsson摔倒在地。據此,Nilsson主張通用汽車公司欠缺對於自駕車的自我操作應符合交通法規及規定所賦之注意義務,換言之,自駕車前揭操作車輛駕駛的行為(未注意其他正在行駛的駕駛人而轉換至比鄰車道)具有過失,造成Nilsson受到嚴重的生理及心理損害,且無法工作,產生高額的醫療、護理費用,故請求法院判決原告即Nilsson之主張不少於7萬5千美元之損害賠償、懲罰性損害賠償、律師委任費用以及其他適當且公正之侵權損害賠償等有理由。 然而,根據先前加州車輛管理局所提之文件,通用汽車對Nilsson所描述之車禍經過提出了以下爭執,通用汽車表示自駕車側面有一條長磨損痕跡,應是當時右邊的車道正要匯入中央車道,而自駕車正在自我校正回車道中央,Nilsson卻騎乘機車從兩個車道中間切出來,導致與自駕車發生擦撞。此外,案發當時自駕車的時速為了順應車流而保持在每小時12英里(每小時19公里)行進,而摩托車卻是以大概每小時17英里(每小時27公里)行進,故自駕車應無不當駕駛之情形,反應由機車騎士Nilsson負擔肇事責任,因其未在確認安全之情況下,即從自駕車右側超車,以上通用汽車反駁Nilsson主張的結論,更與舊金山警察局的報告結果不謀而合,即舊金山警察局認為Nilsson在確定安全以前,就嘗試要超越自駕車。 此外,在前開訴訟提起前的2018年01月14日至01月20日的當週,加州車輛管理局表列出自2014年至2018年間的54起自動駕駛車意外報告,大部分的狀況係由駕駛人(而非自動駕駛車本身)對事故負責(雖開啟自動駕駛模式,但駕駛人仍在特定條件下需要自行駕駛)。 即便前開各個報告看似不利Nilsson,但Nilsson的律師Sergei Lemberg卻表示警方的報告應是有利Nilsson,因自駕車早在車禍發生前就已經發覺Nilsson,但卻沒有預留足夠的時間剎車與閃避,因此通用汽車公司所稱之主張並不足採信,更可見自駕車的行為是危險且難以被預測的。 就此,一位南加大研究自駕車法律問題的法律系教授Bryant Walker Smith表示,未來發生事故的時候,駕駛人在大多數的狀況下比較不會被苛責,但自動駕駛系統會被檢討應該可以做得更完善。 (註:本件訴訟仍在繫屬中,尚未判決。)
美國聯邦貿易委員會插手企業資訊安全引起爭議美國聯邦貿易委員會(Federal Trade Commission, FTC)於2013年8月29日對位於亞特蘭大的一家小型醫療測試實驗室LabMD提出行政控訴,指控LabMD怠於以合理的保護措施保障消費者的資訊(包括醫療資訊)安全。FTC因此依據聯邦貿易委員會法(Federal Trade Commission Act, FTC Act)第5條展開調查,並要求LabMD需強化其資安防護機制(In the Matter of LabMD, Inc., a corporation, Docket No. 9357)。 根據FTC網站揭示的資訊,LabMD因為使用了點對點(Peer to Peer)資料分享軟體,讓客戶的資料暴露於資訊安全風險中;有將近10,000名客戶的醫療及其他敏感性資料因此被外洩,至少500名消費者被身份盜用。 不過,LabMD反指控FTC,認為國會並沒有授權FTC處理個人資料保護或一般企業資訊安全標準之議題,FTC的調查屬濫權,無理由擴張了聯邦貿易委員會法第5條的授權。 本案的癥結聚焦於,FTC利用了對聯邦貿易委員會法第5條「不公平或欺騙之商業行為(unfair or deceptive acts)」的文字解釋,涉嫌將其組織定位從反托拉斯法「執法者」的角色轉換到(正當商業行為)「法規與標準制訂者」的角色,逸脫了法律與判例的約束。由於FTC過去曾對許多大型科技公司(如google)提出類似的控訴,許多公司都在關注本案後續的發展。
以色列發布人工智慧監管與道德政策以色列創新、科學及技術部(Ministry of Innovation, Science and Technology)於2023年12月17日公布以色列首個關於人工智慧的監管和道德政策,在各行各業將人工智慧作為未來發展方向的趨勢下,以多元、協作、原則、創新的理念為其導向,為了化解偏見、人類監督、可解釋性、透明度、安全、問責和隱私所帶來的衝擊,以色列整合政府部門、民間組織、學術界及私部門互相合作制定政策,以求解決人工智慧的七個挑戰,帶領以色列與國際接軌。 該人工智慧政策提出具體政策方向以制定措施,其中具有特色的三項為: 1. 軟性監管:人工智慧政策採取軟性監管制度,以OECD人工智慧原則(OECD AI Principles)為基礎,採行制定標準、監督與自律等方式促進人工智慧永續發展,注重以人為本的道德原則,強調創新、平等、可靠性、問責性。 2. 人工智慧政策協調中心(AI Policy Coordination Center):邀集專家學者成立跨部門的人工智慧政策協調中心,進行人工智慧政策研議,向政府部門監管提出建言,為人工智慧的開發使用建立風險管理,並代表國家參與國際論壇。 3. 公眾參與及國際合作:政府機關與監管機構舉辦人工智慧論壇,提出人工智慧的議題與挑戰,邀請相關人士參與討論,並積極參與國際標準制定,進行國際合作。 我國科技部在2019年邀集各領域專家學者研議提出「人工智慧科研發展指引」,強調以人為本、永續發展、多元包容為核心,以八大指引為標竿,推動人工智慧發展。我國已有跨部會溝通會議對於人工智慧法制政策進行研討,可觀察各國軟性監管措施作為我國人工智慧風險管理及產業政策參考,與國際脈動建立連結。