Apple實施一方法,主要運用於iPhone手機作業系統上,增加手機警示功能(通知未接訊息特徵)。
AppleInsider發現Apple所申請的專利案,主要針對手機警示功能,與增進iPhone手機作業系統效能為主,其中著重於通知遺漏訊息(notifications of missed messages)及調整手機運用屬性偏好(application preferences)。其描述用戶者可運用手機介面上一通知儀表板(notification dashboard)顯示所有接收訊息的詳細資訊,如未接來電, SMS簡訊等。
目前iPhone手機在呈現像即時文字訊息或未接來電等資訊時,用戶者必須將螢幕鍵開鎖,指定回手機主畫面,並開啟特殊功能,以利取得接收到的文字訊息或語音信箱。
Apple新增通知資訊功能,可讓iPhone手機於開鎖(unlock)狀態下,在接獲到即時電子郵件或未接來電等相關訊息時,用戶者不需要將螢幕鍵開鎖,可直接於iPhone手機介面上滑動儀表板(bar),控制在正確的通知資訊位置,用戶者就可直接即時連接此內容,以減少開關鎖之頻率。AppleInsider指出Apple運用此通知服務,間接地指出允許iPhone手機可持續維持於上網之狀態。
AppleInsider指出Apple運用於iPhone手機介面的通知儀表板,主要複製Apple的Mac OS X儀表板之應用程式功能。
註:AppleInsider網站成立於1997年,為提供Apple相關即時資訊之入口網站。
德國Essen地方法院判決(Az. 44 O 79/07),網站上之聯絡我們的功能(Contact-Formula),並不符合網路服務者依德國電信服務法第5條(Telemediengesetz, TMG)所應遵守之資訊揭露義務*。 根據德國電信服務法第5條第1項第2款規定,網路服務提供者之資訊揭露義務範圍,包括應提供一個供網路使用者可以快速且直接聯繫網路服務提供者之電子聯繫方式,例如提供電子郵件。 按德國電信服務法第5條規定目的在提供消費者法定之保護,而違反本條規定者,將可依德國「不正競爭防止法,UWG」第4條第11款及第2條第1項第2款規定,視為違反公平競爭之行為。 該法院認為,網站上「連絡我們功能(Contact-Formula)」性質上僅屬於一個用以製造連結的科技措施,使用者需填寫網站上表格,按下傳送鍵後,始能得知網路服務者之電子郵件,而有些網站甚至無法顯示網路服務者之電子郵件。 我國於「電子商務消費者保護綱領」第5點企業經營者應提供有利於消費者選擇及進行交易之充分資訊包括「企業經營者本身資訊」,例如登記名稱、負責人姓名及公司簡介、公司或商號所在地及營業處所所在地、電子郵件、電話、傳真等聯絡方式及聯絡人等資訊,資訊提供範圍與德國電信服務法第5條第1項第2款大抵相同。 *德國電信服務法(TMG)第5條網路服務者應揭露之資訊範圍包括其聯繫資料、特許職業執照證號、營利事業登記證號等。
用ChatGPT找法院判決?從Roberto Mata v. Avianca, Inc.案淺析生成式AI之侷限用ChatGPT找法院判決?從Roberto Mata v. Avianca, Inc.案淺析生成式AI之侷限 資訊工業策進會科技法律研究所 2023年09月08日 生成式AI是透過研究過去資料,以創造新內容和想法的AI技術,其應用領域包括文字、圖像及影音。以ChatGPT為例,OpenAI自2022年11月30日發布ChatGPT後,短短二個月內,全球月均用戶數即達到1億人,無疑成為民眾日常生活中最容易近用的AI科技。 惟,生成式AI大量使用後,其中的問題也逐漸浮現。例如,ChatGPT提供的回答僅是從所學習的資料中統整歸納,無法保證資料的正確性。Roberto Mata v. Avianca, Inc.案即是因律師利用ChatGPT撰寫訴狀,卻未重新審視其所提供判決之正確性,以致後續引發訴狀中所描述的判決不存在爭議。 壹、事件摘要 Roberto Mata v. Avianca, Inc.案[1]中,原告Roberto Mata於2019年8月搭乘哥倫比亞航空從薩爾瓦多飛往紐約,飛行過程中膝蓋遭空服員的推車撞傷,並於2022年2月向法院提起訴訟,要求哥倫比亞航空為空服員的疏失作出賠償;哥倫比亞航空則主張已超過《蒙特婁公約》(Montreal Convention)第35條所訂之航空器抵達日起兩年內向法院提出損害賠償之請求時效。 R然而,法院審理過程中發現原告訴狀內引用之六個判決無法從判決系統中查詢,進而質疑判決之真實性。原告律師Steven A. Schwartz因而坦承訴狀中引用的六個判決是ChatGPT所提供,並宣稱針對ChatGPT所提供的判決,曾多次向ChatGPT確認該判決之正確性[2]。 貳、生成式AI應用之潛在風險 雖然運用生成式AI技術並結合自身專業知識執行特定任務,可能有助於提升效率,惟,從前述Roberto Mata v. Avianca, Inc.案亦可看出,依目前生成式AI技術之發展,仍可能產生資訊正確性疑慮。以下彙整生成式AI應用之8大潛在風險[3]: 一、能源使用及對環境危害 相較於傳統機器學習,生成式AI模型訓練將耗費更多運算資源與能源。根據波士頓大學電腦科學系Kate Saenko副教授表示,OpenAI的GPT-3模型擁有1,750億個參數,約會消耗1,287兆瓦/時的電力,並排放552噸二氧化碳。亦即,每當向生成式AI下一個指令,其所消耗的能源量相較於一般搜尋引擎將可能高出4至5倍[4]。 二、能力超出預期(Capability Overhang) 運算系統的黑盒子可能發展出超乎開發人員或使用者想像的隱藏功能,此發展將會對人類帶來新的助力還是成為危險的阻力,則會隨著使用者之間的相互作用而定。 三、輸出結果有偏見 生成式AI通常是利用公開資料進行訓練,若輸入資料在訓練時未受監督,而帶有真實世界既存的刻板印象(如語言、種族、性別、性取向、能力、文化等),據此建立之AI模型輸出結果可能帶有偏見。 四、智慧財產權疑慮 生成式AI進行模型訓練時,需仰賴大量網路資料或從其他大型資料庫蒐集訓練資料。然而,若原始資料來源不明確,可能引發取得資料未經同意或違反授權條款之疑慮,導致生成的內容存在侵權風險。 五、缺乏驗證事實功能 生成式AI時常提供看似正確卻與實際情形不符的回覆,若使用者誤信該答案即可能帶來風險。另外,生成式AI屬於持續動態發展的資訊生態系統,當產出結果有偏誤時,若沒有大規模的人為干預恐難以有效解決此問題。 六、數位犯罪增加與資安攻擊 過去由人工產製的釣魚郵件或網站可能受限於技術限制而容易被識破,然而,生成式AI能夠快速建立具高度說服力的各種擬真資料,降低詐騙的進入門檻。又,駭客亦有可能在不熟悉技術的情況下,利用AI進一步找出資安弱點或攻擊方法,增加防禦難度。 七、敏感資料外洩 使用雲端服務提供商所建立的生成式AI時,由於輸入的資料存儲於外部伺服器,若要追蹤或刪除有一定難度,若遭有心人士利用而導致濫用、攻擊或竄改,將可能產生資料外洩的風險。 八、影子AI(Shadow AI) 影子AI係指開發者未知或無法控制之AI使用情境。隨著AI模型複雜性增加,若開發人員與使用者未進行充分溝通,或使用者在未經充分指導下使用 AI 工具,將可能產生無法預期之風險。 參、事件評析 在Roberto Mata v. Avianca, Inc.案中,法院關注的焦點在於律師的行為,而非對AI技術使用的批判。法院認為,隨著技術的進步,利用可信賴的AI工具作為協助用途並無不當,惟,律師應踐行其專業素養,確保所提交文件之正確性[5]。 當AI科技發展逐漸朝向自主與獨立的方向前進,仍需注意生成式AI使用上之侷限。當個人在使用生成式AI時,需具備獨立思考判斷的能力,並驗證產出結果之正確性,不宜全盤接受生成式AI提供之回答。針對企業或具高度專業領域人士使用生成式AI時,除確認結果正確性外,更需注意資料保護及治理議題,例如建立AI工具合理使用情境及加強員工使用相關工具之教育訓練。在成本能負擔的情況下,可選擇透過企業內部的基礎設施訓練AI模型,或是在訓練模型前確保敏感資料已經加密或匿名。並應注意自身行業領域相關法規之更新或頒布,以適時調整資料使用之方式。 雖目前生成式AI仍有其使用之侷限,仍應抱持開放的態度,在技術使用與風險預防之間取得平衡,以能夠在技術發展的同時,更好地學習新興科技工具之使用。 [1]Mata v. Avianca, Inc., 1:22-cv-01461, (S.D.N.Y.). [2]Benjamin Weiser, Here’s What Happens When Your Lawyer Uses ChatGPT, The New York Times, May 27, 2023, https://www.nytimes.com/2023/05/27/nyregion/avianca-airline-lawsuit-chatgpt.html (last visited Aug. 4, 2023). [3]Boston Consulting Group [BCG], The CEO’s Roadmap on Generative AI (Mar. 2023), https://media-publications.bcg.com/BCG-Executive-Perspectives-CEOs-Roadmap-on-Generative-AI.pdf (last visited Aug. 29, 2023). [4]Kate Saenko, Is generative AI bad for the environment? A computer scientist explains the carbon footprint of ChatGPT and its cousins, The Conversation (May 23, 2023.), https://theconversation.com/is-generative-ai-bad-for-the-environment-a-computer-scientist-explains-the-carbon-footprint-of-chatgpt-and-its-cousins-204096 (last visited Sep. 7, 2023). [5]Robert Lufrano, ChatGPT and the Limits of AI in Legal Research, National Law Review, Volume XIII, Number 195 (Mar. 2023), https://www.natlawreview.com/article/chatgpt-and-limits-ai-legal-research (last visited Aug. 29, 2023).
美國國會議員(Patrick Leahy)提案(PROTECT IP Act)封鎖違反智慧財產權的非法網站美國國會議員日前提案,擬立法對抗違反智慧財產權的非法網站。該法案(Preventing Real Online Threats to Economic Creativity and Theft of Intellectual Property Act, 或稱PROTECT IP Act)主要係針對侵害智慧財產權的非法網站,擬賦予美國司法部或著作權人,可向法院聲請於網路上封鎖該網站,或者不讓其在搜尋引擎上顯示,亦即讓該非法網站從網路徹底消失。同時,經營網路金流的業者以及網路廣告商,也不得再提供服務給予這些違反智慧財產權或者是販售贗品的非法網站。 該法案明確的規定,舉凡與非法網站相關的資料、數據、索引、超連結等,皆需從網際網路上移除。亦即,美國人民在網路上將不會再看到這些非法網站的任何資訊,若該法案通過,將連帶影響到Google、Yahoo等搜尋引擎的實務運作。有反對者指出,此舉將使得美國政府可以決定美國人民在網路上應該看什麼內容,因此戲稱該法案為網路審查法案(Internet censorship bill)。 網路巨擘Google執行長(Eric Schmidt)也於今年5月中聲明反對該提案,認為該提案已經嚴重侵害言論自由。執行長Eric Schmidt表示,美國政府試圖以立法手段解決複雜的網路侵權爭議,以立法封鎖、移除非法網站所有資料,跟中國限制網路言論自由的方式如出一轍。 目前該法案尚未通過,已出現不少反對聲浪,財產權以及言論自由同樣是憲法上保障的權利,究竟應如何在保障著作財產權人與言論自由間取得平衡,該法案未來發展值得密切注意。
加拿大可能推動更嚴格的身份盜用法律加拿大的身份盜用問題嚴重,根據Canadian Council of Better Business Bureaus估計,每年因身份盜用所造成的經濟整體損失超過二十億加幣。此外,去年十一月Ipsos-Reid的調查顯示,73%的加拿大人擔心身份盜用問題,且28%的加拿大人曾親身遭遇、或是有周遭認識之人因此受害。 然而,與身份盜用猖獗的現況相較,加拿大個人資料和隱私保護法制一直飽受批評,被認為無法遏止此一問題擴散。加拿大資料安全之基礎規範為「個人資訊保護與電子文件法」(Personal Information Protection and Electronic Documents Act),但以具有重要嚇阻效果的刑法而言,卻只處罰濫用他人身份資訊,如身份詐欺、冒用、偽造等行為,但對於初步蒐集、處理和盜賣身份資訊之行為,卻難以透過現行刑法規範。 身份盜用可能造成的影響層面相當廣泛,例如個人的財務和信用損失、商業或財金產業的損失,甚至是整體納稅人的傷害。 職是之故,加拿大勞工部、魁北克經濟發展部等政府首長乃宣布,聯邦政府有意推動刑法之修改,使檢警對於先期身份盜用(或違法資料蒐集)之行為,有更大的調查和追訴空間,並希望此一政策方向能獲得國會的後續支持。