IBM公司在2日拉斯維加斯舉行世界夥伴(PartnerWorld)會議時,宣布提倡開放原始碼創新的新措施,包括成立求職應徵者資料庫,以及一項電子學習計畫。這座資料庫預定今年第三季推出,屆時會把具有開放原始碼技術的大學生所投的履歷表一一編列成目錄。想被納入資料庫的資格,包括曾經參加IBM校園人才培訓計畫(Academic Initiative)中級程度以上,並通過IBM開放原始碼專業資格考試的人士。該資料庫提供IBM的企業客戶與商業夥伴檢索。起初,此資料庫只涵蓋北美洲地區,但IBM打算將來擴大推廣到世界其他地區。
該公司也將透過提供IBM校園人才培訓計畫,提供各校所需的中介軟體及硬體,而Hubs計畫本身不打算收費,或只酌收少許費用。第一座這種中心預定春季在德州A&M大學成立。
IBM另外在PartnerWorld宣布,計劃今年與商業夥伴共同成立100座新的「創新中心」( innovation centers)。藍色巨人先前已承諾投資1.5億美元開辦這類中心,讓系統整合業者、獨立軟體公司、附加價值流通業者以及解決方案服務提供者藉此取得IBM的技術與設備,以協助他們測試並最佳化自家產品。其構想是協助這些夥伴加速產品上市,並降低產品開發費用。自2004年推出以來,IBM已在北美和歐洲成立大約40座這種中心。
本文為「經濟部產業技術司科技專案成果」
德國專利商標局(DPMA)於2015年7月6日加入全球專利審查高速公路(Global Patent Prosecution Highway,簡稱GPPH),基於此,德國在現有的PPH合作基礎上拓展12個其他的合作專利局。 PPH的目的是經由雙方交流和跨國界專利檢索與審查結果的使用以加速專利登記的處理,一方面維持專利審查的品質,同時形成有效率的專利審查程序。 從2015年7月6日起,一個加速審查的申請不只在德國專利商標局之前合作的9大PPH專利局,即:中國國家知識產權局、日本專利局、英國知識產權局、美國專利商標局、韓國知識產權局、加拿大知識產權局、芬蘭國家專利注冊委員會、新加坡知識產權局、奧地利專利局,還可以在下述12個國家或地區試行,即:澳大利亞知識產權局、丹麥專利商標局、俄羅斯聯邦知識產權局、匈牙利知識產權局、西班牙專利商標局、瑞典專利注冊局、葡萄牙工業產權局、愛沙尼亞專利局、以色列專利局、挪威知識產權局、冰島專利局、北歐專利局(包括丹麥專利商標局、挪威知識產權局、冰島專利局)。 對申請人來說這個制度的優點是,未來若申請人的專利申請案的請求項在參與GPPH的任一國家或地區的專利機構已經被認為具有可專利性,那麼申請人可以要求作為後續申請受理局的德國專利商標局進入簡易程序,以獲得加速審查。
奈米產業民間導引規範先行-以美國推動奈米保險機制及自願性計畫法制為例 歐盟網路接取與互連之規範現況與發展 歐盟議會發布《可信賴人工智慧倫理準則》2019年4月9日,歐盟議會發布《可信賴人工智慧倫理準則》(Ethics Guidelines for Trustworthy AI)。此次內容大致延續歐盟人工智慧高階專家小組(High-level Expert Group on Artificial Intelligence)於2018年12月18日發布的《可信賴人工智慧倫理準則草案》(Draft Ethics Guidelines for Trustworthy Artificial Intelligence)之內容,要求人工智慧須遵守行善(do good)、不作惡(do no harm)、保護人類(preserve human Agency)、公平(be fair)與公開透明(operate transparency)等倫理原則;並在4月9日發布的正式內容中更加具體描述可信賴的人工智慧的具體要件,共計七面向概述如下: 人類自主性和監控(Human agency and oversight):AI係為強化人類能力而存在,使人類使用者能夠做出更明智的決策並培養自身的基礎能力。同時,AI應有相關監控機制以確保AI系統不會侵害人類自主性或是引發其他負面效果。本準則建議,監控機制應可透過人機混合(一種整合人工智慧與人類協作的系統,例如human-in-the-loop, human-on-the-loop, and human-in-command)的操作方法來實現。 技術穩健性和安全性(Technical Robustness and safety):為防止損害擴張與確保損害最小化,AI系統除需具備準確性、可靠性和可重複性等技術特質,同時也需在出現問題前訂定完善的備援計劃。 隱私和資料治理(Privacy and data governance):除了確保充分尊重隱私和資料保護之外,還必須確保適當的資料治理機制,同時考慮到資料的品質和完整性,並確保合法近用資料為可行。 透明度(Transparency):資料、系統和AI的商業模型應該是透明的。可追溯性機制(Traceability mechanisms)有助於實現這一目標。此外,應以利害關係人能夠理解的方式解釋AI系統的邏輯及運作模式。人類參與者和使用者需要意識到他們正在與AI系統進行互動,並且必須了解AI系統的功能和限制。 保持多樣性、不歧視和公平(Diversity, non-discrimination and fairness):AI不公平的偏見可能會加劇對弱勢群體的偏見和歧視,導致邊緣化現象更為嚴重。為避免此種情況,AI系統應該設計為所有人皆可以近用,達成使用者多樣性的目標。 社會和環境福祉(Societal and environmental well-being):AI應該使包含我們的後代在內的所有人類受益。因此AI必須兼顧永續發展、環境友善,並能提供正向的社會影響。 問責制(Accountability):應建立機制以妥當處理AI所導致的結果的責任歸屬,演算法的可審計性(Auditability)為關鍵。此外,應確保補救措施為無障礙設計。