賭博事業之經營是否應由政府獨占之議題,已陸續在歐洲國家產生爭議問題。2007年3月,義大利禁止於英國取得經營賭博事業執照之Stanley公司至義大利提供賭博服務,因此,義大利法院請求歐洲法院判決,以確定此一行為是否違反歐盟自由貿易原則。隨後,歐洲法院做出判決,認定義大利法律禁止未於義大利取得經營執照之公司在義大利境內經營賭博之規定,違反歐盟競爭法及歐盟條約第49條之規定。
2007年7月中旬,法國最高法院逆轉了過去禁止Malta’s Zeturf於法國經營經營賭博的見解,而遵循歐洲法院之判決結果,認為禁止賭博事業係違反了歐盟競爭法,以及歐盟條約第49條保障境內服務自由流通之規定,並基於上述理由判決Malta’s Zeturf取得於法國經營線上賭博遊戲之權利。法國法學專家Credric Manara以為,最高法院該判決將可能打開原來由政府獨占的賭博市場,而讓賽馬及其他運動賭博遊戲能擴及其他歐洲國家。
法國該向判決卻顯示了法國刑法禁止賭博的規定將無法限制歐盟條約中所保障的自由流通原則,然而,這樣的結果,卻也考驗了以刑法禁止賭博的國家對於法規衝突應如何解決以為之因應。
本文為「經濟部產業技術司科技專案成果」
歐盟《人工智慧法》(Artificial Intelligence Act, AIA)自2024年8月1日正式生效,與現行的《醫療器材法》(Medical Devices Regulation, MDR)及《體外診斷醫療器材法》(In Vitro Diagnostic Medical Devices Regulation, IVDR)高度重疊,特別是針對用於醫療目的之人工智慧系統(Medical Device AI, MDAI)。為釐清三法協同適用原則,歐盟人工智慧委員會(Artificial Intelligence Board, AIB)與醫療器材協調小組(Medical Device Coordination Group, MDCG)於2025年6月19日聯合發布常見問答集(Frequently Asked Question, FAQ),系統性說明合規原則與實務操作方式,涵蓋MDAI分類、管理系統、資料治理、技術文件、透明度與人為監督、臨床與性能驗證、合規評鑑、變更管理、上市後監測、資安與人員訓練等面向。 過去,MDR、IVDR與AIA雖各自對MDAI有所規範,但始終缺乏明確的協同適用指引,導致製造商、監管機關與醫療機構在實務操作上常面臨混淆與困難。本次發布的指引透過36題問答,系統性釐清三法在高風險MDAI適用上的關聯,重點涵蓋產品分類原則、合規評鑑流程以及技術文件準備要點,具高度實務參考價值。此外,傳統醫療器材的上市後監測,難以有效因應AI系統持續學習所帶來的風險。AIA因此要求高風險MDAI建立強化的上市後監控系統,並評估AI系統與其他系統交互作用可能產生的影響。 整體而言,該指引的發布不再僅限於MDAI技術層面的合規審查,而是進一步擴展至資料正當性、系統可控性、使用者能力與整體風險治理等層面,體現歐盟對AI倫理、透明與責任的制度化落實。此文件亦為歐盟首次系統性整合AI與醫療器材監管原則,預期將成為MDAI產品研發與上市的重要參考依據。 本文同步刊載於stli生醫未來式網站(https://www.biotechlaw.org.tw)
日本公布新創事業與廠商合作之指針草案,統整雙方不對等契約關係之問題並提出改善建議日本經濟產業省、公平交易委員會及特許廳於2020年12月23日發布「Startup與廠商合作之相關指針」(スタートアップとの事業連携に関する指針)草案,並自同日起至2021年1月25日止向外徵求公眾意見。近年,日本國內一方面看重新創事業與大型企業合作所帶來的優勢;另一方面,在此種合作關係下,雙方的契約關係亦浮現如名為共同研究、卻由大型企業方獨占專利權等問題。基此,配合2020年4月未來投資會議的決議要求,統整新創事業與大型企業間不對等契約關係的問題與提出改善建議,並參考同年11月公平交易委員會所發布的「Startup交易習慣之現況調查報告最終版」(スタートアップの取引慣行に関する実態調査について最終報告),擬定本指針草案。 本指針主要著眼於新創事業與企業間的保密協議(Non-disclosure agreement, NDA)、概念驗證(Proof of Concept, PoC)契約、共同研究契約與授權(license)契約等四種契約類型。除了統整包含訂約階段在內的各種問題實例、以及日本獨占禁止法(私的独占の禁止及び公正取引の確保に関する法律)對此的適用現況外,亦提出了相應的改善與解決方案。舉例而言,指針草案指出,新創事業可能會被合作廠商要求對其公開營業秘密,卻未能簽訂保密協議。對此,合作廠商即可能構成獨占禁止法上濫用其優勢地位之行為。會造成此狀況發生的實務情境,可能為合作廠商承諾事後會簽署保密協議,但要求新創事業先行揭露其程式的原始碼等營業秘密等。而原因則主要包含新創事業缺乏足夠法律素養(literacy)、以及有關開放式創新的相關知識不足等。基此,指針提出改善方案,例如,締約前新創事業即先行區分出可直接向契約他方揭露的營業秘密、得透過締結NDA約定揭露之營業秘密、以及不得揭露之營業秘密等;締結NDA時,應盡可能具體約定營業秘密的使用目的、對象及範圍,並且考量到通常難以舉證廠商違反保密協議,因此不建議揭露攸關新創事業核心能力(core competence)的營業秘密。
OECD發布「促進人工智慧風險管理互通性的通用指引」研究報告經濟合作發展組織(Organisation for Economic Co-operation and Development,下稱OECD)於2023年11月公布「促進AI風險管理互通性的通用指引」(Common Guideposts To Promote Interoperability In AI Risk Management)研究報告(下稱「報告」),為2023年2月「高階AI風險管理互通框架」(High-Level AI Risk Management Interoperability Framework,下稱「互通框架」)之延伸研究。 報告中主要說明「互通框架」的四個主要步驟,並與國際主要AI風險管理框架和標準的風險管理流程進行比較分析。首先,「互通框架」的四個步驟分別為: 1. 「定義」AI風險管理範圍、環境脈絡與標準; 2. 「評估」風險的可能性與危害程度; 3. 「處理」風險,以停止、減輕或預防傷害; 4.「治理」風險管理流程,包括透過持續的監督、審查、記錄、溝通與諮詢、各參與者的角色和責任分配、建立問責制等作法,打造組織內部的風險管理文化。 其次,本報告指出,目前國際主要AI風險管理框架大致上與OECD「互通框架」的四個主要步驟一致,然因涵蓋範圍有別,框架間難免存在差異,最大差異在於「治理」功能融入框架結構的設計、其細項功能、以及術語等方面,惟此些差異並不影響各框架與OECD「互通框架」的一致性。 未來OECD也將基於上述研究,建立AI風險管理的線上互動工具,用以協助各界比較各種AI風險管理框架,並瀏覽多種風險管理的落實方法、工具和實踐方式。OECD的努力或許能促進全球AI治理的一致性,進而減輕企業的合規負擔,其後續發展值得持續追蹤觀察。