所謂中國大陸《網路預約出租汽車經營管理暫行辦法》,是指中國大陸針對目前在各國都陸續發生法律爭議的網路出租車叫車平臺,例如源自美國加州舊金山的優步(Uber),或是中國大陸當地發展的滴滴打車服務,所制定的專法規範,以期解決網路出租車叫車平臺所可能產生的法律爭議。
類似Uber的服務型態,之所以會產生法律爭議,主要是因為汽車運輸載客的商業行為,在各國都會受到汽車運輸業的相關管制,以保障運輸服務乘客安全及消費權益。以德國為例,就曾因此對Uber進行行政處罰,並進一步於司法判決中要求Uber司機需取得營運牌照。
也因此中國大陸交通運輸部在2016年7月14日通過,並於2016年11月1日起施行《網路預約出租汽車經營管理暫行辦法》,該規定將網路預約出租汽車服務定義為「預約出租客運」,平台業者需負擔車輛營運、收益分配與司機管理等等的任務,且其地位為中國大陸汽車運輸載客法規中的客運服務承運人,需負擔相當責任,而並非如Uber等所主張的其僅為仲介平台,不具客運服務承運人之地位。
此外,該辦法亦要求網路預約出租汽車之司機應滿足無交通肇事犯罪紀錄、無危險駕駛犯罪紀錄、無吸毒紀錄、無飲酒後駕駛紀錄、無暴力犯罪紀錄等條件。
本文為「經濟部產業技術司科技專案成果」
Proprius21專案乃是日本東京大學提供企業界可以與該校共同進行研究的一種機制,屬產學合作方式之一。此專案之提出,係該校有鑒於過去產業界與學術界合作進行共同研究的模式,多以特定的企業與特定的研究室間進行一對一的研究為主。然此一共同研究方式雖可讓大學所產出的知識貢獻給社會。但仍嫌規模過小,課題及責任分擔或目標成果不夠明確,所以需要一個可以創造更大規模的創新的機制。基此,東京大學希望透過Proprius21專案創造一個可由該校內部數個單位或研究室,共同參與大型研究主題的專案,以實現從多樣化的觀點來因應數個或一個企業需求之共同研究(多對多或多對一),並結合校內能量完成提案的機制。 東京大學規劃在校內以三階段活動進行Proprius21專案:(1)公開交換意見,即讓「產業界與學術界相遇的場合」的廣場活動。(2)濃縮出最佳的主題,以及尋找最佳成員之個別活動。(3)由成員縝密地製作計畫,由成員以外的人審視計畫內容,打造一個更為優質計劃的篩選活動。 為了推動Proprius21專案,東京大學係由產學合作研究推進部協助日本企業與校內研究人員進行個別的會議及研討會或研習營等活動,同時也針對企業在決定研究主題後,至計畫成案為止間之各階段提供各種支援。此外,該部人員也會接受來自產業界的諮詢,並在製作計畫之際,適當地介紹校內的職員,提供技術建議或審視計畫的內容等各種支援。
日本發布美國數位政策現狀報告,呼籲推動AI發展的同時,亦應注重資料安全性日本獨立行政法人情報處理推進機構(下稱IPA)於2025年10月發布美國第二次川普政權數位政策現狀報告(下稱現狀報告),內文聚焦於美國政權輪換後數位政策之變動與解讀,同時提及在推動AI發展的同時,亦應注重其安全性。 日本觀測美國數位政策的現狀報告指出,隨著社會數位化程度日益增加,除了雲端數位資料的累積,以及提升對於AI的依賴程度外,亦會造成釣魚信件難以識別,透過可自動生成程式碼的惡意攻擊型AI進行攻擊行為等AI濫用之風險。 準此,美國為確保AI與資料的安全性,並維持其領域之競爭優勢,於2025年7月23日發布AI行動計畫,並提出三大方針,包括加速AI創新、建構AI基礎設施,以及透過國際性的AI外交與安全保障發揮領導能力。此外,內文亦提及為確保競爭優勢,需要建立作為AI發展基礎的科學資料集,並建置資料中心,同時確保其具備高度安全性,以避免AI使用者輸入AI之資料遭到竄改或外洩。 此外,現狀報告內文提及日本企業Softbank與OnenAI、Oracle等公司共同參與規模達5000億美元的Stargate計畫,並已於德州著手建設AI資料中心,顯示日本在美國的AI基礎建設中扮演重要角色並佔有一席之地。然而,內文亦指出美國數位政策具備不透明性而有潛在風險,須持續留意與關注。 我國企業如欲深耕AI領域,並透過AI進行技術研發,可由建立科學資料集開始著手,以作為訓練AI模型的基礎,以達到運用AI輔助及縮短研發週期、減少研發過程中的試錯成本等效益。此外,為確保安全性,科學資料集建置過程中所需之數位資料,可參考資訊工業策進會科技法律研究所創意智財中心所發布之《重要數位資料治理暨管理制度規範》,建立貫穿數位資料生命週期之資料治理機制。 本文為資策會科法所創智中心完成之著作,非經同意或授權,不得為轉載、公開播送、公開傳輸、改作或重製等利用行為。 本文同步刊登於TIPS網站(https://www.tips.org.tw)
美國平等就業機會委員會發布「評估就業篩選程序中使用軟體、演算法及AI之不利影響」技術輔助文件美國平等就業機會委員會(Equal Employment Opportunity Commission, EEOC)於2023年5月18日發布「根據 1964 年《民權法》第七章評估就業篩選程序中使用軟體、演算法和AI之不利影響」(Assessing Adverse Impact in Software, Algorithms, and Artificial Intelligence Used in Employment Selection Procedures Under Title VII of the Civil Rights Act of 1964)之技術輔助文件(下簡稱「技術輔助文件」),以防止雇主使用自動化系統(automated systems)對求職者及員工做出歧視決定。 該技術輔助文件為EEOC於2021年推動「AI與演算法公平倡議」(Artificial Intelligence and Algorithmic Fairness Initiative)計畫的成果之一,旨在確保招募或其他就業決策軟體符合民權法要求,並根據EEOC 1978年公布之「受僱人篩選程序統一指引」(Uniform Guidelines on Employee Selection Procedures, UGESP),說明雇主將自動化系統納入就業決策所應注意事項。 當雇主對求職者與員工做出是否僱用、晉升、終止僱傭,或採取類似行動之決定,是透過演算法決策工具(algorithmic decision-making tool),對特定種族、膚色、宗教、性別、國籍或特定特徵組合(如亞洲女性),做出篩選並產生不利影響時,除非雇主能證明該決策與職位工作內容有關並符合業務需求,且無其他替代方案,否則此決策將違反《民權法》第七章規定。 針對如何評估不利影響,雇主得依UGESP「五分之四法則」(four-fifths rule),初步判斷演算法決策工具是否對某些族群產生顯著較低的篩選率。惟EEOC提醒五分之四法則推導出之篩選率差異較高時,仍有可能導致不利影響,雇主應依個案考量,使用實務常見的「統計顯著性」(statistical significance)等方法進一步判斷。 其次,當演算法決策工具係由外部供應商所開發,或由雇主授權管理人管理時,雇主不得以信賴供應商或管理人陳述為由規避《民權法》第七章,其仍應為供應商開發與管理人管理演算法決策工具所產生之歧視結果負責。 最後,EEOC鼓勵雇主應對演算法決策工具進行持續性自我評估,若發現該工具將產生不利影響,雇主得採取措施以減少不利影響或選擇不同工具,以避免違反《民權法》第七章。
歐盟執委會公布《可信賴的AI政策及投資建議》歐盟執委會於2018年6月成立人工智慧高級專家組(The High-Level Expert Group on Artificial Intelligence, AI HLEG),主要負責兩項工作:(1)人工智慧倫理準則;(2)人工智慧政策與投資建議。並於2019年4月8日提出《可信賴的人工智慧倫理準則》(Ethics Guidelines for Trustworthy AI),2019年6月公布之《可信賴的AI政策及投資建議》(Policy and Investment Recommendations for Trustworthy Artificial Intelligence)則是人工智慧高級專家組所交付之第二項具體成果。 該報告主要分為兩大部分,首先第一部分是要透過可信賴的人工智慧建立對歐洲之正面影響,內容提及人工智慧應保護人類和社會,並促進歐洲公司各部門利用人工智慧及技術移轉,而公部門則扮演人工智慧增長及創新之催化劑,以確保歐洲具有世界一流之研究能力;第二部分則是影響歐洲各成員國建立可信賴之人工智慧,內容則提及將發展人工智慧相關基礎設施、教育措施、政策規範及資金投資,同時合法、有道德的使用各項數據。 在本報告中關於法規面的建議則是進一步制定政策和監管框架,確保人工智慧在尊重人權、民主及創新下發展,因此將建立人工智慧政策制定者、開發者及用戶間的對話機制,若是遇到將對社會或是人類產生重大影響之敏感性人工智慧系統,除透過歐洲人工智慧聯盟(The European AI Alliance)進行對話之外,也需要在尊重各成員國之語言及文化多樣性下展開協調機制。另外,報告中也特別提到如果政府以「保護社會」為由建立一個普遍的人工智慧監督系統是非常危險的作法,政府應該承諾不對個人進行大規模監視,並在遵守法律及基本權利下進行人工智慧系統之發展。