日本經濟產業省於2021年10月20日公布第3屆「J-Startup」新創企業獲選名單。本次共選出50間企業,產業所涉及領域包含醫療、數位轉型、能源、太空等。獲選的企業將獲得政府及合作的民間組織所提供之支援,例如協助國內外活動展出、援助研究開發、增加投標機會、商談與其他企業合作等,預期創造出新創企業的成功範例。
「J-Startup」新創企業之選拔分為二階段,第一階段是由具備創業經驗之推薦委員(推薦委員由頂級風險投資人、大企業中與創新有相關之人才、學術單位專家等人員組成)基於新創企業的經營理念、國際性、成長發展性、對於社會議題的應對措施等考量,推薦在全球市場快速發展、具備有領導日本創新潛力之新創企業。第二階段由第三方外部審查委員(律師、學術專家等組成)審查選拔程序後,確定「J-Startup」新創企業名單。
「J-Startup」於2018年6月是由日本經濟產業省、日本貿易振興機構(JETRO)、新能源產業技術綜合開發機構(NEDO)共同創立營運,目的為培養出活躍於全球之新創企業。第1屆「J-Startup」(2018年6月)選拔出92間企業,第2屆(2019年6月)選拔出49間企業,再加上今年度所選拔出之50間企業,目前為止共計有188間新創企業獲選為「J-Startup」(第1屆、第2屆獲選企業中,有3間企業已解散或被併購)。
英國於2018年7月通過自動與電動車法(Automated and Electric Vehicles Act 2018),對自動與電動車輛之定義、保險議題以及電動車充電基礎設施進行規範。 針對自駕車之保險議題,該法採取「單一保險人模式」(Single Insurer Model),無論是駕駛人自行駕駛或自動駕駛,駕駛人均應購買自駕車保險,讓所有用路人對於可能之安全事故均有保險可涵蓋並追溯責任。本法其他重要規定如下; 本法未直接賦予自駕車(Automated vehicle)明確定義,管理方式係由主管機關自行認定並建立清單。本法僅要求清單內之車輛應設計或調整為至少於某些特定狀況能安全行駛之自動駕駛模式。 已納保之自駕車行駛時所造成之損害,將由車輛之承保公司負擔損害賠償責任。 未納保之自駕車若發生事故,則車主應負擔損害賠償責任。 若由保險人負損害賠償責任,則受害人將可依現行法規提出損害賠償請求。保險人則可依普通法與產品責任相關規定,向應對事故負責之單位或個人提出損害賠償請求。 於電動車充電基礎設施之部分,該法之目的則是確保公共充電站適用於所有市面上之電動車輛,並就費用、付費方式以及相關安全標準進行規範,以增進消費者之信任。該法第20條並授權主管機關訂定相關授權辦法,以達上述目標。
美國司法部對標準制訂組織所採取之新政策出競爭法上之意見美國聯邦貿易委員會(Federal Trade Commission, FTC)於今(2006)年8月做出一項重要處分,認定Rambus Inc對其他標準制訂組織成員隱瞞其研發之多項電腦技術的專利,並打算在標準制訂組織採用特定標準後實施其專利的行為,乃以不法方式獨占市場之行為,違反反托拉斯法。 在FTC作成Rambus 的決定後,標準制訂組織也開始嘗試一些防止Rambus案情形發生的事前因應之道,例如已推動電腦系統互連標準的電腦協會VITA,就採行了一項新的標準制訂政策,該協會要求其參與成員必須承諾,階段性釋出其專利及專利申請的資訊,包括其所設定的最高權利金費率與可能採取的最嚴格的限制性授權條件;另其標準制訂政策也禁止成員間就此等專利的權利金費率或授權條件私下協商。由於有認為這種作法可能會被認為是破壞市場競爭秩序的杯葛行為,故VITA乃向美國司法部反托拉斯局徵詢其意見。 2006年10月30日,美國司法部反托拉斯局(Antitrust Division of the Department of Justice)提出一份商業檢視信函(business review letter, BRL),正式對此問題提出看法。司法部反托拉斯局在BRL中指出,基於以下幾點考量,VITA的標準制訂政策尚無限制競爭的疑慮:(1)共同制訂標準可能可帶來諸多有助於競爭的優點;(2)協會此項政策可使成員在推動制訂標準時,有更為充分的資訊作成決定;(3)專利授權條款的事前揭露可避免標準制訂可能因為事後過高的授權金,導致其導入或取代既有技術之時程被拖延。
美國國家標準暨技術研究院發布「人工智慧風險管理框架:生成式AI概況」美國國家標準暨技術研究院(National Institute of Standard and Technology, NIST)2024年7月26日發布「人工智慧風險管理框架:生成式AI概況」(Artificial Intelligence Risk Management Framework: Generative Artificial Intelligence Profile),補充2023年1月發布的AI風險管理框架,協助組織識別生成式AI(Generative AI, GAI)可能引發的風險,並提出風險管理行動。GAI特有或加劇的12項主要風險包括: 1.化學、生物、放射性物質或核武器(chemical, biological, radiological and nuclear materials and agents, CBRN)之資訊或能力:GAI可能使惡意行為者更容易取得CBRN相關資訊、知識、材料或技術,以設計、開發、生產、使用CBRN。 2.虛假內容:GAI在回應輸入內容時,常自信地呈現錯誤或虛假內容,包括在同一情境下產出自相矛盾的內容。 3.危險、暴力或仇恨內容:GAI比其他技術能更輕易產生大規模煽動性、激進或威脅性內容,或美化暴力內容。 4.資料隱私:GAI訓練時需要大量資料,包括個人資料,可能產生透明度、個人資料自主權、資料違法目的外利用等風險。 5.環境影響:訓練、維護和運行GAI系統需使用大量能源而影響碳排放。 6.偏見或同質化(homogenization):GAI可能加劇對個人、群體或社會的偏見或刻板印象,例如要求生成醫生、律師或CEO圖像時,產出女性、少數族群或身障人士的比例較低。 7.人機互動:可能涉及系統與人類互動不良的風險,包括過度依賴GAI系統,或誤認GAI內容品質比其他來源內容品質更佳。 8.資訊完整性:GAI可能無意間擴大傳播虛假、不準確或誤導性內容,從而破壞資訊完整性,降低公眾對真實或有效資訊的信任。 9.資訊安全:可能降低攻擊門檻、更輕易實現自動化攻擊,或幫助發現新的資安風險,擴大可攻擊範圍。 10.智慧財產權:若GAI訓練資料中含有受著作權保護的資料,可能導致侵權,或在未經授權的情況下使用或假冒個人身分、肖像或聲音。 11.淫穢、貶低或虐待性內容:可能導致非法或非自願性的成人私密影像或兒童性虐待素材增加,進而造成隱私、心理、情感,甚至身體上傷害。 12.價值鏈和組件整合(component integration):購買資料集、訓練模型和軟體庫等第三方零組件時,若零組件未從適當途徑取得或未經妥善審查,可能導致下游使用者資訊不透明或難以問責。 為解決前述12項風險,本報告亦從「治理、映射、量測、管理」四大面向提出約200項行動建議,期能有助組織緩解並降低GAI的潛在危害。
美國寬頻業者推動網路傳輸流量上限管理方案有鑑於網路使用人口中,不同使用者族群所消耗的傳輸量比例相差懸殊,美國寬頻業者於近來積極推動網路傳輸流量上限管理計畫,且繼Comcast與Time Warner等業者的初步嘗試後,美國最重要的網路服務提供者—AT&T,也宣布將開始進行客戶網路流量管理計畫。 這項嘗試計畫將以限制新的DSL用戶為起點,其所規定的每月下載與上傳流量上限,係依據客戶申請的寬頻方案有所不同,分別被限制在20G至150G (gigabytes)不定。超過的部分則將持續向使用者警告兩個月後,依每超過1G加收一美元的費用,向使用者收費。 至於提出此項管理方案的理由,據AT&T發言人表示,是因為網路頻寬的使用分佈過於不平均,高達46%的頻寬是5%的使用者在使用,而21%的頻寬更是只為極少數的1%用戶所使用,顯然太過集中。根據AT&T的傳輸上限規定,購買傳輸速度3M (megabits)的寬頻使用者,日後每月的傳輸量上限是60G,這大約等於是下載30部DVD畫質電影的傳輸量。 不過,也有分析師指出,現階段欲全面滿足使用者的頻寬需求,對網路服務提供者而言尚非極大的財務負擔,且管制流量上限的作法,可能對既有以「吃到飽」費率方案為基礎,所發展出來的網路應用服務模式,造成極大的衝擊,此亦也可能引發後續有關網路中立性的政策辯論。