不爽貓(Grumpy Cat)於2012年於社群網站曝光後爆紅後,不爽貓主人辭去工作成立「不爽貓公司(Grumpy Cat Limited)」,專心經營不爽貓事業並推出馬克杯、服飾等週邊產品,以及參與各類跨界合作等。 2013年「手榴彈飲料公司(Grenade Beverage)」以15萬美元合約取得不爽貓圖像之授權,得以販售以「Grumpy Cat Grumppuccino」為名且印有不爽貓圖像之冰咖啡品項。然而在2015年「不爽貓公司」發現該圖像進而印製在烘焙咖啡與T恤上,已超出原本約定之使用範圍,而對「手榴彈飲料公司」提出著作權及商標之侵權及違約訴訟。 「手榴彈飲料公司」負責人桑福德父子(Nick and Paul Sandford)反訴主張「不爽貓公司」未如當初規畫盡公司營運之協助,造成「手榴彈飲料公司」潛在之營收損失而求償1,200萬美元,包括:未讓不爽貓與喜劇演員威爾法洛(Will Ferrell)及傑克布萊克(Jack Black)參與電影演出、「不爽貓公司」僅在社群網站張貼17則冰咖啡之行銷貼文、「不爽貓公司」不重視冰咖啡事業因而在脫口秀節目中脫稿演出等。 然而,加州南區聯邦地方法院陪審團並未因以上指控而猶疑,認定「手榴彈飲料公司」負責人侵害「不爽貓公司」之著作權與商標,應支付71萬美元作為賠償,至於違反授權約定部分則以1元作為象徵性賠償。 「本文同步刊登於TIPS網站(https://www.tips.org.tw)」
英國政府許可利他的研究用途卵子捐贈主管英國生殖醫療及胚胎研究事務的人工授精暨胚胎管理局(The Human Fertilisation and Embryology Authority, HFEA)在考量過包括對捐贈婦女的風險以及公眾意見的諮詢後,於今(2007)年2月21日正式對外宣佈一項關於研究用途卵子捐贈的方案,當中提出有力的安全措施確保婦女在捐贈過程中會被正確的告知其風險,並強制地獲得適當的保障。管理局許可婦女捐贈其卵子以供研究之用,包括利他的卵子捐贈,以及接受試管受精醫療後所剩餘的卵子捐贈,而這是英國政府首度許可非接受生殖醫療的婦女可以為提供研究之用進行卵子捐贈。 HEFA強調研究用途卵子捐贈在程序上將有更明確的安全措施。這些安全措施包括清楚的區分研究人員及施行該婦女醫療的人員、關於實際上研究後果的詳細資訊、捐贈將產生的影響,以及要求獲得捐贈婦女在不受研究團隊干擾下的同意。這些安全措施將可有效避免女性捐贈者在被脅迫、被詐欺或是被誤導下做出捐贈卵子的決定。同時,婦女亦不能藉由捐贈卵子而獲得報酬,捐贈者只能要求一筆因捐贈所實際產生費用的補償(250英鎊,約16000元新台幣)。 雖然HEFA認為研究用途捐贈卵子的婦女將得到管制部門嚴密而強力的保障,並且不預見在這個特殊的研究領域會有魯莽的應用,但是部分專家對此並不贊同。位於英國倫敦的國王學院幹細胞研究學者Stephen Minger博士即認為目前使用人類卵子進行的研究工作仍未成熟,這項過早提出的方案會鼓勵婦女去提供她們的卵子來進行研究,而鼓勵這種情況的發生仍是太早了。
日本發布新版「氫能基本戰略」,全面推動氫能產業發展日本經濟產業省召集的「氫能、燃料電池戰略協議會」(水素・燃料電池戦略協議会)於2023年6月6日發布2023年版的「氫能基本戰略」(水素基本戦略),此為日本於2017年首次提出「氫能基本戰略」後,依據近年國際社會2050淨零碳排之宣示,以及烏俄戰爭造成的能源供應危機等情勢變化,再次提出的新版氫能國家型戰略。 本戰略以一個S、三個E作為其氫能發展基本原則,即安全性(Safety)、能源保全(Energy Security)、經濟效益(Economic Efficiency)、環境(Environment);在確保使用安全性的前提下,期望透過發展氫能,實現「氫能社會」理想,兼顧能源供給穩定與經濟成長,同時對環境有所貢獻。基此,本戰略提出擴大氫供給、創造氫需求、建構大規模供應鏈、發展地區性氫能利用、推動技術革新、國際合作、促進國民理解等七項推動方向。 為強化氫產業競爭力,本戰略從製造、運輸、使用等三個面向著手,首先,確立2030年水電解裝置達15GW之目標,支援生產設備設置;其次,建置輸送管路等基礎設施,以降低運輸成本,並確保足夠的氫運輸船以供海上運輸使用;最後,於技術方面,加速燃料電池車、燃氫,以及以氫作為原料之製鋼、化學品製造等技術發展。 針對氫能安全性,則計畫擬定「氫能安全戰略」(水素保安戦略),從「氫安全性相關科學資料取得及共享」、「統一技術標準」、「第三方認證及技術機構之設立」、「人才培育」等面向,全面檢視並調整與氫供應鏈相關的法規範,以確保整體安全性。
聯合國人權高級專員辦公室發布《數位時代隱私權》調查報告聯合國人權高級專員辦公室(Office of the United Nations High Commissioner for Human Rights, OHCHR)於2021年9月15日發布《數位時代隱私權》(The Right to Privacy in The Digital Age)調查報告,分析各種人工智慧技術,例如側寫(profiling)、自動化決策及機器學習,將如何影響人民之隱私或其他權利,包括健康權、教育權、行動自由、言論自由或集會結社自由等,並提出對國家與企業應如何因應之具體建議。 一、針對國家與企業使用人工智慧之共同建議:在整個人工智慧系統生命週期中,包括設計、開發、部署、銷售、取得(obtain)或運營,應定期進行全面的人權影響評估(comprehensive human rights impact assessments),提高系統使用透明度與可解釋性,並應充分通知公眾與受影響之個人其正在使用人工智慧進行決策。 二、針對國家使用人工智慧之建議:應確保所有人工智慧的使用符合人權,明確禁止並停止販售不符合國際人權法運作之人工智慧應用程序。在證明使用該人工智慧系統能遵守隱私及資料保護標準,且不存在重大準確性問題及產生歧視影響之前,應暫停在公共場所使用遠端生物識別技術。並盡速立法及建立監管框架,以充分預防和減輕使用人工智慧可能造成不利人權的影響,以及確保在侵犯人權時能夠有相關之補救措施。 三、針對企業使用人工智慧之建議:應盡力履行維護人權之責任,建議實施商業與人權指導原則(Guiding Principles on Business and Human Rights),並打擊(combat)人工智慧系統開發、銷售或運營相關的歧視,進行系統評估與監測,以及設計有效的申訴機制。