賭博事業之經營是否應由政府獨占之議題,已陸續在歐洲國家產生爭議問題。2007年3月,義大利禁止於英國取得經營賭博事業執照之Stanley公司至義大利提供賭博服務,因此,義大利法院請求歐洲法院判決,以確定此一行為是否違反歐盟自由貿易原則。隨後,歐洲法院做出判決,認定義大利法律禁止未於義大利取得經營執照之公司在義大利境內經營賭博之規定,違反歐盟競爭法及歐盟條約第49條之規定。
2007年7月中旬,法國最高法院逆轉了過去禁止Malta’s Zeturf於法國經營經營賭博的見解,而遵循歐洲法院之判決結果,認為禁止賭博事業係違反了歐盟競爭法,以及歐盟條約第49條保障境內服務自由流通之規定,並基於上述理由判決Malta’s Zeturf取得於法國經營線上賭博遊戲之權利。法國法學專家Credric Manara以為,最高法院該判決將可能打開原來由政府獨占的賭博市場,而讓賽馬及其他運動賭博遊戲能擴及其他歐洲國家。
法國該向判決卻顯示了法國刑法禁止賭博的規定將無法限制歐盟條約中所保障的自由流通原則,然而,這樣的結果,卻也考驗了以刑法禁止賭博的國家對於法規衝突應如何解決以為之因應。
本文為「經濟部產業技術司科技專案成果」
自從歐洲法院判決谷歌(Google)應該尊重當事人的「被遺忘權」,從搜尋結果移除敏感、不當或過時的資訊聯結後,日本雅虎(Yahoo!)於2014年11月組成了專家小組,針對民眾請求刪除網路搜尋結果時,搜尋引擎應該在何種程度上及如何給予回應等議題進行討論,並於2015年3月30日公布了個資刪除標準,隔日起生效。 日本雅虎表示,當搜尋某人的姓名,出現其病歷、過去曾經犯下的輕罪等敏感性資訊或明顯侵害個人權益的資訊(如非公眾人物的地址、電話號碼等)時,當事人可以請求刪除搜尋結果,但在決定是否准許當事人請求前,雅虎將先行檢查當事人係屬成年人、弱勢族群或公眾人物(包括國會議員、公司高階主管及影視圈名人等)。至於那些被強烈懷疑為非法的性愛照片,如兒童色情或報復性色情(未經本人同意而散播的親密照片)等,將主動予以封鎖而無法瀏覽。 由於線上文字及圖片相當容易複製,不願意公開的資訊被公開在網路上而無法移除時,往往造成當事人心理上極大的痛苦,於搜尋階段便設法封鎖有問題的資訊,能夠有效地防止因資訊傳播而帶來的傷害。但從言論自由及知的權利的角度出發,某些資訊的揭露本身即具有公益色彩,應該適度限制當事人移除資訊的請求。日本雅虎率先公布個資刪除標準,預料將帶動亞洲入口網站對於隱私保護的重視。
“Cookies”—餅乾或是毒藥? 開放原始碼組織有意減少授權版本開放原始碼協會(Open Source Initiative,簡稱OSI)的新任總裁Russ Nelson在3月2日提出了一項新的提案,希望解決一項重大的問題:開放原始碼授權的擴增問題。亦即,只要符合該組織的10點開放原始碼定義,OSI可提供正式開放原始碼授權(licenses,或稱「許可」)身份。 在寄給開放原始碼社群的一份聲明裡,Nelson表示,新的條款規定:授權不可與既有的授權重覆;必需以清楚、簡單,而容易了解的方式撰寫;以及把個人、專案或組織的名稱通通移至隨附的附件中,以便讓授權書可重複使用。 Nelson在接受專訪時表示,新條款要由OSI董事會通過才可生效。董事會成員已經過過該提案,但還未安排好投票的議程。OSI並不打算取消已經通過的授權認證,Nelson表示。他認為,推出「OSI Gold」升級認證應該可達到同樣的效果。他進一步表示,新的條款是否能夠有效減少授權數量,還要看執行是否有力。
美國國家標準暨技術研究院規劃建立「人工智慧風險管理框架」,並徵詢公眾對於該框架之意見美國國家標準暨技術研究院(National Institute of Standards and Technology, NIST)為管理人工智慧對於個人、組織以及社會所帶來之風險,於2021年7月29日提出將建立「人工智慧風險管理框架」(Artificial Intelligence Risk Management Framework, AI RMF)之規畫並徵詢公眾意見,截止日為9月15日,並預計於10月發布正式報告。 依照NIST說明,公眾所建議之人工智慧風險管理框架,可促進人工智慧之可信賴性,其中包含如何應對並解決人工智慧於設計、發展及使用過程中所遭遇之「精確度」(accuracy)、「可解釋性」(explainability)、「偏見」(bias)等議題。此外,上開管理框架預計為非強制性、供企業自願性使用於人工智慧設計、發展、使用、衡量及評估之人工智慧標準。 依現有公眾意見徵詢結果,其中DeepMind公司建議於人工智慧設計初期,必須預先構思整體系統之假設是否符合真正社會因果關係。舉例言之,當設計一套可預測民眾健保需求程度之系統時,如輸入參數僅考量民眾於醫療上的花費,將使僅有可負擔較高醫療費用之民眾被歸類為健保需求程度較高者,從而導致健保制度排擠經濟負擔程度較差之公民,故在設計系統時,應從預先設定之假設事實反面(counter-factual)思考並驗證是否會產生誤差或公平性之問題(例如預先思考並驗證「醫療費用支出較低之民眾是否即可被正確歸類為健保需求度低之民眾」)。惟進行上述驗證需要大量社會資料,因此DeepMind也建議NIST應建立相關機制,使這些社會資料可以被蒐集、使用。 此外,亦有民眾建議管理框架應有明確之衡量方法以及數值指標,以供工程界遵循。同時鑒於人工智慧發展極為快速,未來可能有不同於以往之人工智慧類型出現,故亦建議NIST應思考如何在「建構一套完整且詳細之人工智慧治理框架」與「保持人工智慧治理框架之彈性與靈活性」之間取得平衡。 最後,目前也有許多徵詢意見指出,許多人工智慧治理之目標會相互衝突。舉例言之,當NIST要求人工智慧系統應符合可解釋性,則人工智慧公司勢必需要經常抽取人工智慧系統中之「數據軌跡」(audit logs),惟數據軌跡可能被認為是使用者之個人資料,因此如何平衡或完善不同治理框架下之目標,為未來應持續關注之議題。