美國民主黨參議員Chris Murphy在2015年4月16日捲土重來提出「榮光法案」(Helping Angels Lead Our Startups Act,以下簡稱HALOS Act)。HALOS法案在上個會期胎死腹中,此次重新提出,旨在強調暢通管道以投資新創公司之重要性,Murphy表示:「我們應該尋求更便利的管道,讓各種財務狀態但具備財務知識的投資人(knowledgeable investors of any financial status)都能投資新創公司,利用他們的專業和資金來增強新創公司成功的可能性。」 舉辦「Demo Days」或「Pitch Events」,是現行許多美國創業家藉以增加與天使投資人(Angel Investors)連結的方式。在「Demo Days」此種場合,創業家通常僅向與會者展示其產品或服務,而不主動進行籌資,避免提及或發送與公司財務預測、業務成長等等與招募投資人有關的資訊、文件。 在「Pitch Events」的場合,其主要目的則為發掘潛在投資人,進而籌募新創公司所需之資金。但此種類似投資說明會的「Pitch Events」必須受到美國2012年「新創企業啟動法」(Jumpstart Our Business Startups Act,以下簡稱JOBS法)的規範,也就是會議進行方式是否涉及1933年證券交易法Rule 502(c) of Regulation D所指之「公開徵求」(general solicitation)、參與者是否為「合格投資人」(accredited investor)等問題。所謂的合格投資人是指符合一定的資格而足以被認定具有充分財務決定能力,JOBS法因此要求這些天使投資人必須交出一定的個人財務資料作為佐證。 批評者認為這些規定無助於讓新創公司籌募所需資金,也因此無法創造更多就業機會,因為許多投資人對於必須將自己的財務狀況分享給新創公司,甚至是活動策展人,往往是感到不太自在的。Murphy參議員認為這些規定是「繁瑣的第三方審核程序」、「是一種對隱私的侵犯,嚇跑了那些想要想要支持新創公司的投資人,特別是在新創公司最需要資金的時刻」。 Murphy參議員提出此法案回應了批評者的建議,主張法規對於這些天使投資人團體(Angel Investor Group)應該有不一樣的規範方式,因為這些天使投資人與新創公司通常早已具有家族或朋友等人際網絡關係。
英國與美國為人工智慧安全共同開發簽署合作備忘錄英國技術大臣(U.K. Secretary of State for Science)蜜雪兒·多尼蘭(Michelle Donelan)和美國商務部長(U.S. Secretary of Commerce)吉娜·雷蒙多(Gina Raimondo)於2024年4月1日在華盛頓特區簽署一份合作備忘錄(MOU),雙方將共同開發先進人工智慧(frontier AI)模型及測試,成為首批就測試和評估人工智慧模型風險等進行正式合作之國家。 此備忘錄之簽署,是為履行2023年11月在英國的布萊切利公園(Bletchley Park)所舉行的首屆人工智慧安全峰會(AI Safety Summit)上之承諾,諸如先進AI的急速進步及濫用風險、開發者應負責任地測試和評估應採取之適當措施、重視國際合作和資訊共享之必要性等等,以此為基礎羅列出兩國政府將如何在人工智慧安全方面匯集技術知識、資訊和人才,並開展以下幾項聯合活動: 1.制定模型評估的共用框架(model evaluations),包括基礎方法(underpinning methodologies)、基礎設施(infrastructures)和流程(processes)。 2.對可公開近用模型執行至少一次聯合測試演習(joint testing exercise)。 3.在人工智慧安全技術研究方面進行合作,以推進先進人工智慧模型之國際科學知識,並促進人工智慧安全和技術政策的一致性。 4.讓英、美兩國安全研究所(AI Safety Institute)間的人員互相交流利用其團體知識。 5.在其活動範圍內,依據國家法律、法規和契約規定來相互共享資訊。 換言之,兩國的機構將共同制定人工智慧安全測試之國際標準,以及適用於先進人工智慧模型設計、開發、部署、使用之其他標準。確立一套通用人工智慧安全測試方法,並向其他合作夥伴分享該能力,以確保能夠有效應對這些風險。就如英國技術大臣蜜雪兒·多尼蘭強調的,確保人工智慧的安全發展是全球性問題,只有通過共同努力,我們才能面對技術所帶來的風險,並利用這項技術幫助人類過上更好的生活。
因應知識經濟社會 日本推動司法改革鑑於社會態度轉變與經濟面的需求,特別是隨著稅法和智慧財產權問題日益複雜,日本企業領袖紛紛延攬龐大的律師團,以借助其專長規劃並解決相關問題,以至法律專業人才需求更甚於以往。為此,日本改變壓低律師人數以及不鼓勵興訟的政策,大刀闊斧推動二次世界大戰以來最大的司法制度改革。本次司法制度大改革廣開職業考試大門,以便有足夠的律師、檢察官與法官,能在日益好訟的日本社會處理龐大民、刑事案件。 為填補需求缺口,日本政府決定將包括律師、檢察官和法官在內的法律專業人士的人數提高一倍以上,在 2018 年以前增至五萬人。同時,重大刑案將在 2009 年引進陪審團制度,以減輕法官負擔。在政府鼓勵下,日本第一所美式法學院於 2004 年成立,現在全國已有七十二所類似的法學院。過去日本大學法律系通常著重法律的學術或理論面,而新式法學院的重心則以實務訓練為主。這些法學院的畢業生不必考舊律師考試,只考專為他們設計的筆試。 我國法學教育改革研議已有幾十年,總統府人權諮詢小組在討論人權問題時,亦有專題涉及法律人養成與司法制度改革,因而研議全盤改革相關制度;行政院經建會在重要人才培育與運用的政策中,亦研擬自去( 94 )年開始推動法律專業學院制度。
美國國家標準與技術研究院公布人工智慧風險管理框架(AI RMF 1.0)美國國家標準與技術研究院(National Institute of Standards and Technology, NIST)於2023年1月26日公布「人工智慧風險管理框架1.0」(Artificial Intelligence Risk Management Framework, AI RMF 1.0),該自願性框架提供相關資源,以協助組織與個人管理人工智慧風險,並促進可信賴的人工智慧(Trustworthy AI)之設計、開發與使用。NIST曾於2021年7月29日提出「人工智慧風險管理框架」草案進行公眾徵詢,獲得業界之建議包含框架應有明確之衡量方法以及數值指標、人工智慧系統設計時應先思考整體系統之假設於真實世界中運作時,是否會產生公平性或誤差的問題等。本框架將隨著各界使用後的意見回饋持續更新,期待各產業發展出適合自己的使用方式。 本框架首先說明人工智慧技術的風險與其他科技的差異,定義人工智慧與可信賴的人工智慧,並指出設計該自願性框架的目的。再來,其分析人工智慧風險管理的困難,並用人工智慧的生命週期定義出風險管理相關人員(AI actors)。本框架提供七種評估人工智慧系統之信賴度的特徵,包含有效且可靠(valid and reliable):有客觀證據證明人工智慧系統的有效性與系統穩定度;安全性(safe):包含生命、健康、財產、環境安全,且應依照安全風險種類決定管理上的優先次序;資安與韌性(secure and resilient);可歸責與資訊透明度(accountable and transparent);可解釋性與可詮譯性(explainable and interpretable);隱私保護(privacy-enhanced);公平性—有害偏見管理(fair – with harmful bias managed)。 本框架亦提出人工智慧風險管理框架核心(AI RMF Core)概念,包含四項主要功能:治理、映射(mapping)、量測與管理。其中,治理功能為一切的基礎,負責孕育風險管理文化。各項功能皆有具體項目與子項目,並對應特定行動和結果產出。NIST同時公布「人工智慧風險管理框架教戰手冊」(AI RMF Playbook),提供實際做法之建議,並鼓勵業界分享其具體成果供他人參考。