為了有效管理歐洲食品安全局(European Food Safety Authority, EFSA)內部各項活動間之利益管控與監督,EFSA日前於3月5日公布利益申報(Declarations of Interest, DOIs)施行規則(Implementing Rules),並計畫於2012年7月1日正式實施,且同時搭配一個為期4個月的過渡(Transition Period)配套措施方案。該利益申報施行規則,乃為EFSA於今年初所核准之「獨立性與科學決策過程」(Independence and Scientific Decision-Making Processes)政策的基礎規範項目之一。
本次EFSA所頒布之利益申報施行規則,其訂定之理由係因,原任職於EFSA旗下基因工程植物之首席風險評估專家,轉任至一家專門研發及生產該種植物之生物科技公司;為避免並且釐清相關因該事件所衍生之利益衝突問題,乃制定本規範。故此,為具體有效管理EFSA內部人員與其他涉及EFSA各項活動之機構間的利益監督事宜,EFSA遂進一步於今年初開始著手進行相關措施之規劃。目前該利益申報施行規則除了主要針對EFSA旗下之各層級人員訂定各項利益類型之規範準則外,更重要的是,其亦提供其旗下之專業科學研究人員,各項能有效具體確認其利益界線之劃分的保護措施。由於該利益申報施行規則授與EFSA選取與管理利益申報議題若干彈性,因此EFSA能具體且有效的利用相關規範延攬頂尖研究人員,進而協助EFSA提升其內部研發人員之創新研發能力。
政府機關成員之利益申報與迴避問題,乃為全球各國政府需面對之問題,而對於如何有效且彈性的進行相關議題之管控,更是相關政策制訂時需加以考量之點。EFSA之利益申報施行規則不僅有效管理內部人員之利益衝突與申報問題,同時亦藉由彈性的管理規範方式,延攬優秀頂尖人才,達到具體提升研發水準之功效;對此,EFSA之規範方式與運作成效,實值得加以觀察與效仿。
本文為「經濟部產業技術司科技專案成果」
德國經濟及能源部於2018年3月8日為企業資訊安全保護措施建議及資料保護、資料所有權相關法規提出建議文件,協助中小企業提升對於組織及特別領域中的資安風險之意識,並進一步採取有效防護檢測,包括基本安全防護措施、組織資安維護、及法規,並同時宣導德國資料保護法中對於資安保護的法定要求。 資通訊安全及其法規係為企業進行數位化時,涉及確保法的安定性(Rechtssicherheit)之議題。加強資安保護,除可增進銷售及生產力,並使商業貿易間有更大的透明度和靈活性,和創造新的合作信賴關係。因此相關網路內容服務提供商應符合法律要求,提供相關服務,並使共享資料得到完善的保護。例如:應如何保護處理後的資料?如何執行刪除個人資料權利?各方如何保護營業秘密?如果資料遺失,誰應承擔責任?唯有釐清上述相關等問題時,方能建立必要的信任。而在德國聯邦資料保護法,歐盟一般個人資料保護法、歐盟網路與資訊安全指令等規範及相關法律原則,係為數位創新企業執行資安基礎工作重要法律框架。但是,由於數位化的發展,新的法律問題不斷出現,目前的法律框架尚未全面解決。例如,機器是否可以處理第三方資料並刪除或保存?或是誰可擁有機器協作所產生的資料?因此,未來勢必應針對相關問題進行討論及規範。鑑於日益網路化和自動運作的生產設備,工業4.0的IT法律問題變得複雜。一方面,需要解決中、大型企業的營業祕密,資料所有權和責任主題之實際問題,以促進相關數位化創新。另一方面,為了能夠推導出現實的法律規範,需要更多具體實施案例討論。 據研究顯示,企業家對產品責任問題,人工智慧使用,外包IT解決方案,及雲端計算等核心問題的新法規以顯示出極大的興趣,並進一步列入既有或規劃中研究項目。未來,政府將協助為所有公司在安全框架下展開數位計畫合作的機會,並充分利用網路的潛力,而中小企業4.0能力中心也將為中小型公司在數位化目標上提供IT法問題方面的支持。
微軟,摩托羅拉兩度正面交鋒專利訴訟微軟與摩托羅拉移動(谷歌旗下公司)將展開第二次關於智慧型手機及其他技術的專利侵權訴訟之審判。 這場陪審訴訟將於周一在西雅圖舉辦,主要將解決“摩托羅拉是否違反以非合理的條款授權微軟在Xbox遊戲機中無線和視訊技術領域所使用的標準必要專利(standard essential patents)。 去年11月,兩科技公司進行第一次大對決,確認了微軟應支付給摩托羅拉使用其專利技術的費用。經過5個月的審議後,美國地方法院James Robart審判法官裁定給微軟優惠方案,其建議每年支付約略180萬美元的費用給摩托羅拉,雖超過微軟所估算的100萬美元,但仍遠低於摩托羅拉原提出的40億美元的要求。 微軟依據過去的文件資料表示,微軟過去已表示支付給摩托羅拉680萬美元的權利金,但摩托羅拉拒絕這筆權利金的費用。 面對即將到來的訴訟案,微軟將主張摩托羅拉原先所提出的需求屬不合理要求,已違背其費用主張的合理和不帶歧視性的條款(reasonable and non-discriminatory terms)協議。 合理和不帶歧視性的條款(reasonable and non-discriminatory terms),一般稱為“RAND“,其條款主要是為了防止擁有標準必要專利之公司,透過專利龔斷市場,使用不合理的競爭手法,造成其他競爭對手的傷害。
英國建置著作數位著作授權平台(Copyright Hub),為數位時代增添授權管道英國智慧局於今 (2013) 年3月底時宣布投入15萬英鎊(約683萬元台幣)啟動一項名為「數位著作授權平台」(Copyright Hub)的建置計畫,並於今年7月正式上線,提供權利人、利用人、以及市場等關於著作權的授權相關事宜。 根據該平台籌設小組所提出的營運方針 ,初步觀察該平台的定位與功能可歸納出三項特點: 一、平台定位為連結利用端與權利端之入口門戶(Portal) 該匯集平台的定位為連結(connect)利用端與權利端的入口門戶,屬於一種著作權資訊匯集中心;只要涉及與著作權相關的內容作品,都可以加入此平台,不限於數位形式的內容作品,該平台並非要取代現有的市場機制,而係在促進現有的集體管理團體、作品登錄單位(Registry)以及跨領域之間有關著作權之交流。 二、平台的主要功能在於媒合權利端與利用端 平台主要提供的服務內容為協助利用端找尋合適的內容以及權利資訊,降低其在海量的數位世界裡搜尋的成本。即平台作為第三方的媒合者,協助兩端進行相關授權事務,利用人可透過該平台向權利人提出授權申請,或是由權利人向不特定或潛在的利用者提出授權的邀約。另外,透過平台的資訊彙整機制,也可降低授權的爭議,例如專屬授權的重疊,以及授權範圍的疑義等等。 三、平台透過數位權利管理資訊系統搭配管理碼達成目的 目前數位作品(Copyright Management System)已蔚為趨勢,因此該平台希望藉由多媒體識別網絡(Multimedia Identifier Network),在每一個數位作品加入一個管理碼,用以管理作品的權利資訊(包括授權內容等訊息)。此外,平台未來也會建立識別不同國際標準碼的機制,讓使用不同國際標準碼之作品在此平台上都能夠互相轉換或辨識。 目前數位著作授權平台(2013年七月初)已經成立,不難發現英國政府的企圖心,欲透過此一平台媒介進一步將英國的音樂、圖像、影音透網絡推廣到世界。從文化層面來說,係希冀透過該媒介再傳遞或散布英倫三島的文化,進而透過間接或直接產生經濟上的價值反饋。我國向來蓬勃發展的音樂產業、出版產業、以及近來興起的影音產業,在華語世界或是亞洲等,競爭力不亞於其他國家,甚至近來流行文化已經深入擴散到鄰近國家當中,我們如何透過科技媒介整合文創產業,進而增加經濟上的產值,英國政府的此種思維脈絡足堪借鏡。
OECD啟動全球首創的《開發先進人工智慧系統組織的報告框架》2025年2月7日,經濟合作暨發展組織(Organization for Economic Cooperation and Development,OECD)正式啟動《開發先進人工智慧系統組織的報告框架》(Reporting Framework for the Hiroshima Process International Code of Conduct for Organizations Developing Advanced AI Systems,簡稱G7AI風險報告框架)。 該框架之目的是具體落實《廣島進程國際行為準則》(Hiroshima Process International Code of Conduct)的11項行動,促進開發先進人工智慧系統(Advanced AI Systems)的組織建立透明度和問責制。該框架為組織提供標準化方法,使其能夠證明自身符合《廣島進程國際行為準則》的行動,並首次讓組織可以提供有關其人工智慧風險管理實踐、風險評估、事件報告等資訊。對於從事先進人工智慧開發的企業與組織而言,該框架將成為未來風險管理、透明度揭露與國際合規的重要依據。 G7 AI風險報告框架設計,對應《廣島進程國際行為準則》的11項行動,提出七個核心關注面向,具體說明組織於AI系統開發、部署與治理過程中應採取之措施: 1. 組織如何進行AI風險識別與評估; 2. 組織如何進行AI風險管理與資訊安全; 3. 組織如何進行先進AI系統的透明度報告; 4. 組織如何將AI風險管理納入治理框架; 5. 組織如何進行內容驗證與來源追溯機制; 6. 組織如何投資、研究AI安全與如何降低AI社會風險; 7. 組織如何促進AI對人類與全球的利益。 為協助G7推動《廣島進程國際行為準則》,OECD建構G7「AI風險報告框架」網路平台,鼓勵開發先進人工智慧的組織與企業於2025年4月15日前提交首份人工智慧風險報告至該平台(https://transparency.oecd.ai/),目前已有包含OpenAI等超過15家國際企業提交報告。OECD亦呼籲企業與組織每年定期更新報告,以提升全球利益相關者之間的透明度與合作。 目前雖屬自願性報告,然考量到國際監理機關對生成式AI及高風險AI 系統透明度、可問責性(Accountability)的日益關注,G7 AI風險報告框架內容可能成為未來立法與監管的參考作法之一。建議企業組織持續觀測國際AI治理政策變化,預做合規準備。