IBM公司在2日拉斯維加斯舉行世界夥伴(PartnerWorld)會議時,宣布提倡開放原始碼創新的新措施,包括成立求職應徵者資料庫,以及一項電子學習計畫。這座資料庫預定今年第三季推出,屆時會把具有開放原始碼技術的大學生所投的履歷表一一編列成目錄。想被納入資料庫的資格,包括曾經參加IBM校園人才培訓計畫(Academic Initiative)中級程度以上,並通過IBM開放原始碼專業資格考試的人士。該資料庫提供IBM的企業客戶與商業夥伴檢索。起初,此資料庫只涵蓋北美洲地區,但IBM打算將來擴大推廣到世界其他地區。
該公司也將透過提供IBM校園人才培訓計畫,提供各校所需的中介軟體及硬體,而Hubs計畫本身不打算收費,或只酌收少許費用。第一座這種中心預定春季在德州A&M大學成立。
IBM另外在PartnerWorld宣布,計劃今年與商業夥伴共同成立100座新的「創新中心」( innovation centers)。藍色巨人先前已承諾投資1.5億美元開辦這類中心,讓系統整合業者、獨立軟體公司、附加價值流通業者以及解決方案服務提供者藉此取得IBM的技術與設備,以協助他們測試並最佳化自家產品。其構想是協助這些夥伴加速產品上市,並降低產品開發費用。自2004年推出以來,IBM已在北美和歐洲成立大約40座這種中心。
本文為「經濟部產業技術司科技專案成果」
近年來透過美國國際貿易委員會(International Trade Commission,簡稱ITC)調查營業秘密盜用的案件逐年增加,從2018 年僅有2件到2021年已增加至9件,此現象可能與疫情期間大量員工離職流動有關,預期2022年會有更多員工流動的情況,也將使企業面臨更大的營業秘密盜用風險。 雖然過往熟知ITC是專利糾紛的戰場,但ITC對於構成營業秘密盜用的「不公平行為」也有管轄權。尋求ITC營業秘密盜用調查和傳統聯邦或州法院訴訟相比的好處包括:(1) ITC可管轄在發生在美國以外的營業秘密盜用行為、(2) ITC調查時間短,平均在15-18個月會做出處置、(3) 向ITC尋求救濟時間未有限制,聯邦或州法院則會要求在發現或應該發現營業秘密盜用行為起3-5年內應提出。 若ITC對於營業秘密盜用調查成立,請求人可取得排除令(exclusion order)禁止因盜用營業秘密產生的商品進入美國,也可取得制止令(cease-and-desist order)停止已在美國的被訴產品銷售。雖然ITC不能提供金錢賠償,但企業可同時向聯邦或州法院提出訴訟請求金錢賠償,且與專利案件不同,ITC關於營業秘密調查的勝利對於尋求金錢賠償的地方法院訴訟具有排他性影響(preclusive effect)。 因此,當面臨營業秘密盜用者不在美國或需要在短時間取得調查結果的情況,尋求ITC營業秘密盜用調查對企業會是有利的做法。 「本文同步刊登於TIPS網站(https://www.tips.org.tw)」
德國聯邦政府公布人工智慧戰略,制定AI發展及跨領域應用框架德國聯邦政府於2018年11月15日公布聯邦政府人工智慧戰略(Strategie Künstliche Intelligenz der Bundesregierung),除了針對人工智慧一詞定義外,並概述德國人工智慧戰略的3項基本原則,14項目標和12項行動領域。 第一項原則係透過該戰略,為德國在人工智慧(AI)的發展和應用制定整體政策框架,促進德國成為人工智慧最佳研究環境,以及人工智慧在產業與中小企業之應用,以確保德國未來競爭力。第二項原則係人工智慧在社會各領域有多種應用可能性,將可明顯促進社會進步和公民利益,因此重點將強調AI的應用對於人類和環境可帶來的益處,並加強社會各界對於人工智慧主題的密集交流及討論,確保AI朝負責且共同利益為出發點的開發及應用。第三項原則將透過廣泛的社會對話和積極的政策框架,將道德,法律,文化和制度結合人工智慧之應用融入整體社會。 該戰略列舉之工作項目同時包括評量標準,包含建置德法創意網(虛擬中心)、起草國家級且持續性的教育策略、加強相關創業投資力道、針對相關新創公司提供綜合性諮詢和推廣服務、針對自願提供且符合隱私規範之共享資料與建立資料分析基礎設備者研擬獎勵及促進框架、利用風險投資、創業融資和成長科技基金計畫擴展籌資機會、建立至少12個AI應用中心、將人工智慧列為研發機構跳躍式創新的焦點,未來5年加強產學研合作項目推廣、將環境與氣候的人工智慧應用列為發展亮點、共同決策人工智慧技術的導入與應用、透過中小企業4.0中心每年至少與1000家企業建立聯繫並進行AI訓練、將AI實驗室應用情境移轉至工作場所、進一步發展人工智慧平台學習系統、設計擘劃跨領域社會科學之「未來數位化工作與社會基金」、進一步制定相關數位化轉型專家策略、建立德國人工智慧觀測站、組織以人為中心的人工智慧工作環境之歐洲和跨大西洋對話、促進具自決權,社會與文化參與性及保護公民隱私之創新應用、聯邦政府於2025年前將投資約30億歐元於人工智慧發展、開發人工智慧生態系統、培養至少100名相關領域新教授、與資料保護監督機關及商業協會召開圓桌會議。
企業監看員工網路活動法律爭議之防堵 美國國家標準暨技術研究院發布「人工智慧風險管理框架:生成式AI概況」美國國家標準暨技術研究院(National Institute of Standard and Technology, NIST)2024年7月26日發布「人工智慧風險管理框架:生成式AI概況」(Artificial Intelligence Risk Management Framework: Generative Artificial Intelligence Profile),補充2023年1月發布的AI風險管理框架,協助組織識別生成式AI(Generative AI, GAI)可能引發的風險,並提出風險管理行動。GAI特有或加劇的12項主要風險包括: 1.化學、生物、放射性物質或核武器(chemical, biological, radiological and nuclear materials and agents, CBRN)之資訊或能力:GAI可能使惡意行為者更容易取得CBRN相關資訊、知識、材料或技術,以設計、開發、生產、使用CBRN。 2.虛假內容:GAI在回應輸入內容時,常自信地呈現錯誤或虛假內容,包括在同一情境下產出自相矛盾的內容。 3.危險、暴力或仇恨內容:GAI比其他技術能更輕易產生大規模煽動性、激進或威脅性內容,或美化暴力內容。 4.資料隱私:GAI訓練時需要大量資料,包括個人資料,可能產生透明度、個人資料自主權、資料違法目的外利用等風險。 5.環境影響:訓練、維護和運行GAI系統需使用大量能源而影響碳排放。 6.偏見或同質化(homogenization):GAI可能加劇對個人、群體或社會的偏見或刻板印象,例如要求生成醫生、律師或CEO圖像時,產出女性、少數族群或身障人士的比例較低。 7.人機互動:可能涉及系統與人類互動不良的風險,包括過度依賴GAI系統,或誤認GAI內容品質比其他來源內容品質更佳。 8.資訊完整性:GAI可能無意間擴大傳播虛假、不準確或誤導性內容,從而破壞資訊完整性,降低公眾對真實或有效資訊的信任。 9.資訊安全:可能降低攻擊門檻、更輕易實現自動化攻擊,或幫助發現新的資安風險,擴大可攻擊範圍。 10.智慧財產權:若GAI訓練資料中含有受著作權保護的資料,可能導致侵權,或在未經授權的情況下使用或假冒個人身分、肖像或聲音。 11.淫穢、貶低或虐待性內容:可能導致非法或非自願性的成人私密影像或兒童性虐待素材增加,進而造成隱私、心理、情感,甚至身體上傷害。 12.價值鏈和組件整合(component integration):購買資料集、訓練模型和軟體庫等第三方零組件時,若零組件未從適當途徑取得或未經妥善審查,可能導致下游使用者資訊不透明或難以問責。 為解決前述12項風險,本報告亦從「治理、映射、量測、管理」四大面向提出約200項行動建議,期能有助組織緩解並降低GAI的潛在危害。