加州公共事業委員會(California Public Utilities Commission, CPUC)提出自駕車試點計畫,允許在未有配置人類駕駛之情況下測試自駕車,此次計畫包含兩個試點項目,將於5月被五人委員會審核,並決定是否批准。
第一個試點項目允許參與廠商之自駕車上路測試,並須配置經培訓的人類駕駛於自駕車內,以應付隨時的突發狀況;第二個試點項目則允許無人駕駛之自駕車上路測試,惟在無人類駕駛隨車之情況,必須符合加州機動車輛管理局(Department of Motor Vehicles, DMV)之規定,如遠端監控車輛狀態及操作,以保障乘客安全。
參與廠商必須定期向CPUC及DMV繳交營運報告,包含測試期間車輛碰撞(collision)及解除自動駕駛(disengagement)次數。
此次試點計畫已開放廠商申請,科技大廠及叫車服務公司如Google、Tesla、Uber以及Lyft等目前亦已正進行自駕車之設計與測試。若此提案通過,CPUC將進一步規劃自駕車載客服務之相關辦法,使自駕車測試之法制更臻完善。
本文為「經濟部產業技術司科技專案成果」
美國拜杜法雖下放政府補助研發成果給予執行單位,但基於針對受補助者行使研發成果時若未能妥適授權運用,政府得行使「介入權」(march-in rights)。所謂的介入權,是指補助機關事後可以因為執行單位授權或運用不當,而選擇強制介入調整其授權內容。但補助機關採用介入權是有前提要件的,35 U.S.C. § 203規定:「受補助者在適當的合理期間內,未能採取有效的措施以達到該創新的實際應用或使用…」或者強制授權是「其他聯邦法律規定的保護公共健康、安全需要或公共使用」所必要者。相對我國則有經濟部於「經濟部科學技術研究發展成果歸屬及運用辦法」第21條規定政府介入權發動之要件,其與美國法制有異曲同工之妙。
世界經濟合作暨發展組織(OECD)修正「隱私保護及個人資料之國傳輸指導指引」1980年09月發布的「隱私保護及個人資料之國傳輸指導指引」,當中的8大原則對個人資料保護的法制產生深遠的影響,但隨技術發展,資料傳遞所產生的風險遠較於1980年代來得複雜。2013年所發布的內容,風險管理及為全球資料流通的互動性為兩大主軸,因此,在指引中納入新的概念,包含1.國家隱私策略:有效的隱私法制是不可或缺的,但在今日國家應該將隱私保護放在更高的戰略位置、2.隱私管理程序:(以個人資料)為核心服務的機制應系統化的保護隱私、3.資料安全漏洞通知:涵蓋有權者及各別個體的通知。 在指引第一章附件的第三部份-責任的履行,增加資料控制者(data controller),應有管理程序以符合上述的原則,該管理程序需包含資料風險的評估、內部監控、通知主管機關等要求;第五個部份-國家實施則新增加隱私主管機關的設立、考量不同角色(如:資料控制者)所應遵循的行為、考量其它的配套措施,如技術、教育訓練等。 在OECD的成員國,如:日本,已開始向該國國內說明2013年版的指引,但亦有部分會員國,如:加拿大,由於指引涵蓋公部門及私部門,加拿大亦討論如何與該國的資訊近用法(Access to Information Act) 及隱私權法 (Privacy Act)建構一個完善的適用模式。指引對於未來國際資料傳輸及管理程序的建置,必然產生結構性的影響,值得持續關注。
強化驗證技術以遏止網路犯罪美國聯邦政府與企業界正朝向增加驗證技術的使用,以遏止線上詐騙的盛行,所謂「雙重驗證( ”two-factor” Authentication)」機制,為美國聯邦財政機構檢測委員會(Federal Financial Institutions Examination Council, FFIEC )與美國芝加哥直銷協會( The Direct Marketing Association, DMA )推行,主要要求檢查除用戶名稱和密碼以外的東西來確認顧客的身份。 美國聯邦財政機構檢測委員會 —包括聯邦儲備(Federal Reserve)和聯邦存款保險公司(Federal Deposit Insurance Corp.,FDIC)等管理者在內,要求銀行2006年底皆必須加強網上身份驗證措施,如給每個顧客一份加密的憑證,這些憑證會向銀行證明用戶的真實身份。且該加密的憑證不會向發放該憑證的其它網站做出回應,這樣既保護了用戶,也保護了銀行。此外,美國聯邦財政機構檢測委員會審查員亦會定期檢查銀行的執行情況;而以美國芝加哥直銷協會為例,其要求會員於交易時所使用之電子郵件,須取得電子郵件系統的驗證,以確保電子郵件係由該協會成員所發出。 如同美國芝加哥直銷協會執行長 John A. Greco 所言,消費者可藉由此種驗證方式增加更多信心,對於其所取的資訊係來自可靠來源並具有合法性,可使市場減低網路犯罪之產生並對於政府、企業及消費者有更多保障。
歐盟執委會啟動《關於標示與標籤AI生成內容之行為準則》之相關工作,以協助生成式AI之提供者與部署者履行其透明度義務2025年11月5日,歐盟執委會啟動《標示與標籤人工智慧生成內容之行為準則》(a code of practice on marking and labelling AI-generated content,下稱行為準則)之相關工作,預計將於2026年5月至6月間發布行為準則。此行為準則與《歐盟人工智慧法案》(EU AI Act)之透明度義務規定相關。這些規定旨於透過促進對資訊生態系的信任,降低虛假訊息、詐欺等風險。 《歐盟人工智慧法案》第50條第2項及第4項之透明度義務,分別規定 1. 「『提供』生成音檔、圖像、影片或文本內容的AI系統(包括通用AI系統)」的提供者(Providers),應確保其輸出係以機器可讀的形式標示(marked),且可被識別屬於AI所生成或竄改(manipulated)的內容。 2. 「『使用』AI系統生成或竄改以構成深度偽造之影像、音訊或影片內容」的部署者(Deployers),應揭露該內容係AI所生成或竄改。 前述透明度義務預計於2026年8月生效。 後續由歐盟AI辦公室之獨立專家透過公眾資訊與徵選利害關係人意見等方式,推動起草行為準則。此行為準則不具強制性,旨於協助AI系統提供者更有效地履行其透明度義務,且可協助使用深偽技術或AI生成內容的使用者清楚地揭露其內容涉及AI參與,尤其是當向公眾通報公共利益相關事項時。 AI應用蓬勃發展,同時AI也可能生成錯誤、虛構的內容,實務上難以憑藉個人的學識經驗區分AI幻覺。前文提及透過標示AI生成的內容,以避免假訊息孳生。倘企業在資料源頭以標示等手段控管其所使用之AI的訓練資料,確保資料來源真實可信,將有助於AI句句有理、正向影響企業決策。企業可以參考資策會科法所創意智財中心發布之《重要數位資料治理暨管理制度規範(EDGS)》,從資料源頭強化數位資料生命週期之管理。 本文為資策會科法所創智中心完成之著作,非經同意或授權,不得為轉載、公開播送、公開傳輸、改作或重製等利用行為。 本文同步刊登於TIPS網站(https://www.tips.org.tw)