有鑑於英國14家銀行及金融公司被發現有任意丟棄客戶個人資料而違反「資料保護法」(Dada Protection Act)的情形,英國資訊官辦公室(Information Commissioner´s Office,ICO)於2007年3月17日要求其中11家銀行及金融公司簽署一份承諾書,保證其將來在處理客戶資料時必當遵守資料保護法的規定。
資訊官辦公室次長表示,銀行及金融公司應該以嚴肅的態度來處理客戶資料安全性的問題,否則,他們不但要接受資訊官辦公室更進一步的資訊安全審核,而且還會失去客戶對其之信賴。再者,若這些組織仍不遵守其簽署的承諾書,除了可能對遭到行政罰外,甚至還可能需要負擔違反資料保護法的刑事責任。
除了資訊官辦公室,英國的金融服務局(Financial Services Authority,FSA)亦有權針對違反資料保護法規定之金融公司加以執法。今年2月,英國房屋抵押貸款協會(Nationwide Building Society)便在金融服務局的資訊安全審核中,因為其使客戶資料暴露在可能遭竊的風險下而被處以1百萬鎊的罰金。
本文為「經濟部產業技術司科技專案成果」
歐盟執委會於去年 9月公佈了新式樣保護指令修正建議案,針對現行零組件新式樣保護的現況加以調整,以增強歐盟境內零件市場的競爭力;英國政府為此亦針對指令之修正建議案展開諮詢程序。 依據現行歐盟新式樣保護指令,所謂新式樣係指「物品可見之外觀」 (visible appearance of an object),且不包含技術特徵在內。藉由新式樣保護制度,保障權利人投資能有一定之回饋,也可激發更多新式樣的設計產生。 在前述制度設計下,任何複合性產品 (如汽車、家電製品)之銷售已為新式樣權利人帶來經濟上的利得。但是當前述商品故障或毀損時,原新式樣權利人是否可主張對於修復產品所需之零組件(spare parts)亦能享有獨占權?由於現行新式樣保護指令中第14條規定零件必須能夠修復該產品以「恢復該產品原有之外觀」,因此新式樣保護亦間接導致原權利人對於修護配件市場之壟斷。 歐盟新式樣保護指令在制定當時,對於「零配件」之保護議題,曾引發會員國間極大爭議,因此現行第 14條予以折衷處理,亦即允許各會員國在國內法放寬市場競爭,但是對於任何減少市場競爭之立法則不允許。 英國在此議題上採取寬鬆之立場,因此,英國境內有著相當成熟且蓬勃的修護配件市場,也提供消費者更高品質且價格更優惠的選擇。因此,即便歐盟新式樣保護修正後,對英國境內之衝擊也很有限。
美國於5月通過愛國者法案修正案美國參議院於今年(2020年)5月,通過了由共和黨領袖 Mitch McConnell 所提議主張,恢復《愛國者法案》(Patriot Act)中,原本應於今年3月失效的215條監控條款,該條款允許執法機構在沒有搜索令的情況下,取得人民的網路歷史瀏覽和搜尋紀錄。 此修正案授予聯邦調查局(FBI)及中央情報局(CIA)等執法機構權力,只要其認為該紀錄與犯罪調查有關並且在檢察總長的監督下,即可無須經過法官批准,獲取人民的網路歷史瀏覽和搜尋紀錄。此法案雖限制執法機構不得取得人民瀏覽和搜尋網頁的「內容」,但卻可以取得該歷史紀錄,而歷史紀錄中詳細記載了人民所瀏覽的網站及所輸入的關鍵字。 倡導隱私保護而反對此一法案的團體,認為政府在此法案的支持下,能夠藉由打擊恐怖主義、避免社會動亂、保護國家安全以及保護兒童等理由,對人民進行監視、侵害其隱私。反對者認為網路瀏覽和搜尋紀錄是美國人最敏感、最個人和最私密的部分,人們會把所想到的每一個想法都透過網路去搜尋,並且瀏覽相關網站,因此,獲取人民的網路瀏覽和搜尋紀錄即等同於了解其內心想法。此法案的反對者包含了兩黨的部分參議員、自由派公民團體「美國公民自由聯盟(American Civil Liberties Union)」以及保守派公民團體「繁榮美國(Americans for Prosperity)」,其認為並無任何證據能夠證明政府依《愛國者法案》所進行的大規模監管,得以拯救任何人的生命。 民主國家中,如何在犯罪追訴以及民主自由之間找到平衡,會是一個值得深究的問題。
歐盟議會發布《可信賴人工智慧倫理準則》2019年4月9日,歐盟議會發布《可信賴人工智慧倫理準則》(Ethics Guidelines for Trustworthy AI)。此次內容大致延續歐盟人工智慧高階專家小組(High-level Expert Group on Artificial Intelligence)於2018年12月18日發布的《可信賴人工智慧倫理準則草案》(Draft Ethics Guidelines for Trustworthy Artificial Intelligence)之內容,要求人工智慧須遵守行善(do good)、不作惡(do no harm)、保護人類(preserve human Agency)、公平(be fair)與公開透明(operate transparency)等倫理原則;並在4月9日發布的正式內容中更加具體描述可信賴的人工智慧的具體要件,共計七面向概述如下: 人類自主性和監控(Human agency and oversight):AI係為強化人類能力而存在,使人類使用者能夠做出更明智的決策並培養自身的基礎能力。同時,AI應有相關監控機制以確保AI系統不會侵害人類自主性或是引發其他負面效果。本準則建議,監控機制應可透過人機混合(一種整合人工智慧與人類協作的系統,例如human-in-the-loop, human-on-the-loop, and human-in-command)的操作方法來實現。 技術穩健性和安全性(Technical Robustness and safety):為防止損害擴張與確保損害最小化,AI系統除需具備準確性、可靠性和可重複性等技術特質,同時也需在出現問題前訂定完善的備援計劃。 隱私和資料治理(Privacy and data governance):除了確保充分尊重隱私和資料保護之外,還必須確保適當的資料治理機制,同時考慮到資料的品質和完整性,並確保合法近用資料為可行。 透明度(Transparency):資料、系統和AI的商業模型應該是透明的。可追溯性機制(Traceability mechanisms)有助於實現這一目標。此外,應以利害關係人能夠理解的方式解釋AI系統的邏輯及運作模式。人類參與者和使用者需要意識到他們正在與AI系統進行互動,並且必須了解AI系統的功能和限制。 保持多樣性、不歧視和公平(Diversity, non-discrimination and fairness):AI不公平的偏見可能會加劇對弱勢群體的偏見和歧視,導致邊緣化現象更為嚴重。為避免此種情況,AI系統應該設計為所有人皆可以近用,達成使用者多樣性的目標。 社會和環境福祉(Societal and environmental well-being):AI應該使包含我們的後代在內的所有人類受益。因此AI必須兼顧永續發展、環境友善,並能提供正向的社會影響。 問責制(Accountability):應建立機制以妥當處理AI所導致的結果的責任歸屬,演算法的可審計性(Auditability)為關鍵。此外,應確保補救措施為無障礙設計。
日本經產省發布「新創企業的經濟外溢效果」調查摘要為了解2022年公布《新創企業發展五年計畫》(スタートアップ育成5か年計画)(下稱新創計畫)後之情形,日本經濟產業省(簡稱經產省)針對新創企業造成之影響進行調查,於2024年7月22日發布「新創企業之經濟外溢效果」(スタートアップによる経済波及効果)調查摘要(下稱調查摘要),簡述如下: 1.新創企業之經濟貢獻:新創計畫期望透過新創企業提昇產業競爭力,並提供青年就業機會,故積極進行人才培育與輔導創業。根據調查摘要,自新創計畫執行後日本新創企業所創造之國內生產毛額(Gross Domestic Product, GDP)為10.47兆日元(約新台幣2.1兆元),若包含外溢效果(Spillover Effect)則為19.39兆日元(約新台幣3.88兆元),並創造52萬個就業機會。 2.新創企業改變經濟結構之潛力:根據調查摘要,過去10年間日本新創公司併購案件增長22%,顯示其經濟實力提升;且新創公司中女性主管的比例增加,亦顯示其可改善日本女性職場地位。 3.創投資金注入引發新創企業之外溢效果:新創計畫鼓勵創投公司投資新創企業,由於擁有更多之週轉資金,與未接受創投的企業相比,接受創投的企業在擴大就業和創新方面表現更佳。新創計畫推動後,目前日本創投對新創公司之投資金額增加7.8倍(70%之新創公司獲得創投公司投資),並創造13.94兆日元(約新台幣2.8兆元)之GDP。