標準制定組織為了提高產業競爭,防止標準制定組織之會員們,在獲得涵蓋產業標準的專利權後,以壟斷性手段壓迫其他競爭對手,故通常會以智慧財產權政策要求參加的會員揭露其被標準制定組織選擇寫入標準的專利。其重要內容通常包括:
1. 必要專利揭露
許多標準制定組織皆有規定,標準必要專利權人應依以誠實信用及適當方式進行揭露之義務,例如IEEE及ETSI 。即對於討論中的技術標準,必須對標準制定組織及其參與者公開揭露所持有的必要專利。揭露的基本目的主要有三項 :
(1) 使標準開發相關工作小組會員可以掌握納入標準之多項候選技術的基本資訊(例如專利技術價值、成本及可行性等等),並做出適當選擇。
(2) 藉此得知須提出授權聲明或承諾的必要專利權人。
(3) 藉此讓必要專利的潛在實施者得知應向那些必要專利權人獲取必要專利相關資訊。
2. 事前揭露授權條款(ex-ante disclosure of licensing terms)
事前揭露授權條款係一種受保護之技術在被採納為標準必要專利前,將授權條件的揭露的機制,目前IEEE及ETSI採行自願性揭露方式。與必要智財權的揭露及授權聲明不同,其主要的目的在於讓標準制定委員會將技術採納為標準前,可以根據所揭露的授權條件來決定有那些技術在符合權利人授權條件下,有哪些技術可以納入標準,又有哪些不同替代技術,並據以作成決定 。
本文為「經濟部產業技術司科技專案成果」
歐盟執委會(European Commission)於去(2011)年11月底宣布,與歐洲電機工程領導組織Orgalime聯盟進行合作,將設立「電動車整合建設示範計畫」,加強推動業界示範營運實務經驗,並結合ICT技術發展,推動歐洲電動車蓬勃發展。歐盟於2011年6月所制定「2011交通政策白皮書--(2011 White Paper on Transport)」,3月所公告「歐盟2050交通遠景(Transport 2050)」規劃政策均係將「電動車產業」視為推動歐盟交通運輸政策之重要支柱;並且,歐盟更是於同年3月所制訂「2011能源效率推動方案(Energy Efficiency Plan 2011)」,明訂運輸專章,宣示將落實推動境內電動車產業相關投資、技術發展及基礎建設。 並且,歐盟對於電動車推動策略,係定位為結合ICT技術與交通工具之重要實踐。由歐盟執委會所支持成立的歐洲綠色車輛促進組織--「ICT4FEV」,其於2010年12月所公布「ICT for the Fully Electric Vehicle」及所2009年10月所制訂「European Roadmap Electrification of Road Transport」,宣示電動車之推動,對於節約能源與氣候保護的關鍵影響因素,並且規劃於科技領域各項研發工作,強化ICT技術、相關零組件及其系統,可扮演之重要角色,包括儲能系統、運輸技術、車輛整合、安全、電網整合運輸系統整合等。ICT4FEV並宣示未來將持續推動及檢視政府應備規範,並進行相關法令之調修工作。
物聯網時代的資料保護防線-以歐盟GDPR為中心 歐盟議會發布《可信賴人工智慧倫理準則》2019年4月9日,歐盟議會發布《可信賴人工智慧倫理準則》(Ethics Guidelines for Trustworthy AI)。此次內容大致延續歐盟人工智慧高階專家小組(High-level Expert Group on Artificial Intelligence)於2018年12月18日發布的《可信賴人工智慧倫理準則草案》(Draft Ethics Guidelines for Trustworthy Artificial Intelligence)之內容,要求人工智慧須遵守行善(do good)、不作惡(do no harm)、保護人類(preserve human Agency)、公平(be fair)與公開透明(operate transparency)等倫理原則;並在4月9日發布的正式內容中更加具體描述可信賴的人工智慧的具體要件,共計七面向概述如下: 人類自主性和監控(Human agency and oversight):AI係為強化人類能力而存在,使人類使用者能夠做出更明智的決策並培養自身的基礎能力。同時,AI應有相關監控機制以確保AI系統不會侵害人類自主性或是引發其他負面效果。本準則建議,監控機制應可透過人機混合(一種整合人工智慧與人類協作的系統,例如human-in-the-loop, human-on-the-loop, and human-in-command)的操作方法來實現。 技術穩健性和安全性(Technical Robustness and safety):為防止損害擴張與確保損害最小化,AI系統除需具備準確性、可靠性和可重複性等技術特質,同時也需在出現問題前訂定完善的備援計劃。 隱私和資料治理(Privacy and data governance):除了確保充分尊重隱私和資料保護之外,還必須確保適當的資料治理機制,同時考慮到資料的品質和完整性,並確保合法近用資料為可行。 透明度(Transparency):資料、系統和AI的商業模型應該是透明的。可追溯性機制(Traceability mechanisms)有助於實現這一目標。此外,應以利害關係人能夠理解的方式解釋AI系統的邏輯及運作模式。人類參與者和使用者需要意識到他們正在與AI系統進行互動,並且必須了解AI系統的功能和限制。 保持多樣性、不歧視和公平(Diversity, non-discrimination and fairness):AI不公平的偏見可能會加劇對弱勢群體的偏見和歧視,導致邊緣化現象更為嚴重。為避免此種情況,AI系統應該設計為所有人皆可以近用,達成使用者多樣性的目標。 社會和環境福祉(Societal and environmental well-being):AI應該使包含我們的後代在內的所有人類受益。因此AI必須兼顧永續發展、環境友善,並能提供正向的社會影響。 問責制(Accountability):應建立機制以妥當處理AI所導致的結果的責任歸屬,演算法的可審計性(Auditability)為關鍵。此外,應確保補救措施為無障礙設計。
開放臍帶血移植 再等等林口長庚醫院透過專案申請,已經完成10例「非親屬臍帶血移植」手術,病人術後狀況良好,都不需再輸血,有2人連抗排斥藥物都不需要。目前學界草擬的「臍帶血移植草案」已出爐,將放寬為常規手術,不過須審慎訂定符合手術的資格,開放與否還得再等。 林口長庚原本預計在2年內完成4例手術,結果半年內就完成,再度以專案申請,1年2個月下來共完成10例。參與的兒童醫院血液腫瘤科醫師江東和表示,參與試驗的病童,多為重度海洋性貧血,在臍帶血配對上,不那麼嚴格,術後恢復情形良好,加上家長口耳相傳,所以不斷有人希望透過此一途徑,救自己的孩子。 不過,林口長庚暫時無法再繼續「加班」,江東和表示經費是主因,這10例由於是試驗性質,醫療費用、門診追蹤費用,全由長庚的研究經費支付,不可能無限量供應。江東和表示院方對於臍帶血移植手術,累積的信心度很高,未來須視手術開放的程度,列為常規醫療還是專案申請,才能決定如何繼續這項治療方法。