由於開放原始碼的風氣盛行,使得許多 軟體業者 在使用開放原始碼軟體開發自家的軟體產品時,常不小心 逾越開放原始碼的授權範圍而陷身於 侵權的風險中。大抵一般比較常見的侵權情形,如企業開發專有軟體時, 利用單一或多樣以上的開放原始碼元件來建置,如交易工具或財產庫存管理應用程式等,而將這些程式流通於內部企業網路或是傳遞給外部客戶使用時,已構成”散佈”行為,是觸犯了開放原始碼 GPL ( General Public License ,通用公共許可 )授權 。 日前位於紐約的 開放原始碼風險管理公司( Open Source Risk Management , OSRM )結合 Lloyd's 保險業者 Kiln 及 Miller 保險經紀公司推出開放原始碼保單來承擔企業使用開放原始碼的風險,該保險單最高賠償金額為 1000 萬美元。平均而言,企業若是投保 100 萬美元的保單,每年大約必須支付 2 萬美元的保險費。
美國地方法院以缺乏原創性為由駁回對泰勒絲歌詞的侵權訴訟2016年9月,詞曲創作者Sean Hall及音樂公司代表Nathan Butler提出著作權侵權訴訟,控訴泰勒絲2014年單曲【Shake it off】中「Playas, they gonna play / And haters, they gonna hate」的詞彙使用方法抄襲了2001年所錄製的【Playas Gon'Play】,主張在2001年前這種特定角色加上特定動作的重覆出現組合,並未於任何流行文化中所使用。 由於原告僅以歌詞部分進行侵權訴訟,美國聯邦地區法院法官不需專家或陪審團意見即可進行判決。法官Michael Fitzgerald以「平庸(banal)」一詞形容原告所提出的詞彙組合,駁回該訴訟,並表示被控侵權的泰勒絲歌詞內容部分為短語(short phrases),缺乏著作權法所保護的原始性及創作性,且「Playas gonna play / haters gonna hate」所展現的創作性和「鼓手會打鼓/游泳者會游泳」沒什麼兩樣。因此,除非【Shake it off】中有其他音樂元素可能值得聲稱侵權,法院願意給予原告機會修改聲明,進行上訴。此外,法院提出其它理由:「Playas+play」這樣的詞彙組合早於1977年單曲【Dreams】中「Players only love you when they’re playing」就曾被使用過,且「Playas」一詞也曾用於1990年年代做為R&B樂團的團名。 這不是【Shake it off】第一次遭逢侵權訴訟,2015年Jessie Braham指控【Shake it off】侵犯其於2013年發行的單曲【Haters Gone Hate】,並求償4,200萬美元。但由於原告並未提供足夠證據,該案亦遭駁回。
基改小麥事件爆發 基改標示議題再上火線基因改造食品的安全性,向來引起全球關注,各界爭議不休。美國農業部在上(5)月29日公開表示,在奧勒岡州(Oregon)的私人農場中發現基因改造小麥,這是否屬於單一個案,還是意味著基改防線已有所瓦解,對於美國基改管理體系具有重大意義。以目前而言,美國尚未核准任何基因改造小麥。 美國是全球最大的小麥供應國,每年有4000萬噸小麥輸入亞洲;其中,日本更是美國最重要的海外市場。在本案爆發之後,日本於第一時間暫停來自美國西北的小麥進口至美國境內,這股緊張氣氛預計將快速漫延至其他亞洲國家。 事實上,在這事件同時,於綠色和平(green peace)及其他NGO團體串聯下,全球200萬民眾走上街頭,抗議美國孟山都(Monsanto)及其研發的基因改造食品,包括美國、加拿大、阿根廷等,估計共有52國、436個城市響應,一齊表達對於基因改造食品的不安感。在基因改造食品的長期爭議下,美國有若干州考慮採取立法管制,特別是要求基因改造作物或產品必須要標示清楚,以保護消費者的權益。最新的進展是,在本(6)月4日,康乃迪克州(Connecticut)議會以134比3,通過基因改革食物法案,要求各項食物必須明確標示是否含有基因改造成分。在這之後,緬因(Maine)州也立即跟進,以141比4通過類似的基改標示法案。而案件爆發地–奧勒岡州,則還沒有進一步消息。
IBM提出「人工智慧日常倫理」手冊作為研發人員指引隨著人工智慧快速發,各界開始意識到人工智慧系統應用、發展過程所涉及的倫理議題,應該建構出相應的規範。IBM於2018年9月02日提出了「人工智慧日常倫理」(Everyday Ethics for Artificial Intelligence)手冊,其以明確、具體的指引做為系統設計師以及開發人員間之共同範本。作為可明確操作的規範,該手冊提供了問責制度、價值協同、可理解性等關注點,以促進社會對人工智慧的信任。 一、問責制度(Accountability) 由於人工智慧的決策將作為人們判斷的重要依據,在看似客觀的演算系統中,編寫演算法、定義失敗或成功的程式設計人員,將影響到人工智慧的演算結果。因此,系統的設計和開發團隊,應詳細記錄系統之設計與決策流程,確保設計、開發階段的責任歸屬,以及程序的可檢驗性。 二、價值協同(Value Alignment) 人工智慧在協助人們做出判斷時,應充分考量到事件的背景因素,其中包括經驗、記憶、文化規範等廣泛知識的借鑑。因此系統設計和開發人員,應協同應用領域之價值體系與經驗,並確保演算時對於跨領域的文化規範與價值觀之敏感性。同時,設計師和開發人員應使人工智慧系統得以「了解並認知」用戶的價值觀,使演算系統與使用者之行為準則相符。 三、可理解性(Explainability) 人工智慧系統的設計,應盡可能地讓人們理解,甚至檢測、審視它決策的過程。隨著人工智慧應用範圍的擴大,其演算決策的過程必須以人們得以理解的方式解釋。此係讓用戶與人工智慧系統交互了解,並針對人工智慧結論或建議,進而有所反饋的重要關鍵;並使用戶面對高度敏感決策時,得以據之檢視系統之背景數據、演算邏輯、推理及建議等。 該手冊提醒,倫理考量應在人工智慧設計之初嵌入,以最小化演算的歧視,並使決策過程透明,使用戶始終能意識到他們正在與人工智慧進行互動。而作為人工智慧系統設計人員和開發團隊,應視為影響數百萬人甚至社會生態的核心角色,應負有義務設計以人為本,並與社會價值觀和道德觀一致的智慧系統。