蘋果電腦扼殺了Android平台的多點觸控功能

  眾所矚目的Google phone終於上市了,然而,讓許多人好奇的是,為什麼Google phone所搭載的Android平台不支援多點觸控(multitouch)?

  現在,我們終於知道Google略過多點觸控功能的可能原因了。 根據Android團隊成員的說法,以多點觸控聞名的iPhone的製造者蘋果電腦要求Google不得導入此應用,而Google答應了。該團隊成員進一步表示,Google的決定讓他們鬆了一口氣。在此之前,Palm因為宣布將在新的Pre phone中採用多點觸控技術而面臨蘋果電腦空前的官司壓力。即使蘋果電腦最後決定不對Palm採取法律行動,這兩家公司之間的關係也很難好轉。顯然,Google不想破壞與蘋果電腦的關係 。

  蘋果電腦上個月剛取得一個名稱為「觸控螢幕裝置、方法以及應用啟發式原理來確認使用者指令的圖形化使用者介面」的專利,其專利號為7,479,949。此專利在2008年04月11日提出申請,其內容涵蓋了應用在iPhone上的多點觸控功能以及在iPhone上所使用的指令手勢。

  在獲得該專利權的隔天,蘋果電腦營運長Tim Cook公開警告iPhone的競爭對手「我們不會放任蘋果的智慧財產權被剽竊,且絕對會拿出所有可動用的武器作反擊」。

相關連結
※ 蘋果電腦扼殺了Android平台的多點觸控功能, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=2990&no=55&tp=1 (最後瀏覽日:2026/05/10)
引註此篇文章
你可能還會想看
印度對TK( Traditional Knowledge傳統知識 )保護提出的建議修正案

  近年來許多先進國家的藥廠或是生技公司紛紛到生物資源豐富的國家從事生物探勘活動,希望可以尋找合適的生技產品候選者 (candidate) ,也因此產生許多不當佔有的生物盜竊 (biopiracy) 事件。   由於印度本身在 2002 年專利法修正時,特別規定生技發明之專利申請者若使用生物物質 (biological material) ,應揭露其地理來源 (source of geographical origin) ,未揭露其來源地或提供錯誤資訊者,則構成專利撤銷之理由; 2005 年的專利法修正的重點之一為「加強專利授予前異議 (pre-grant opposition) 機制」,意即未揭露生物物質之來源地或提供錯誤資訊者,或者申請專利之權利內容含有傳統知識者,可提出異議之事由。   目前國際間針對是否應強制規定申請人應揭示其來源地等仍無共識。從 2001 年的杜哈發展議程的談判會議結果即可知,由於該談判採取 「單一承諾( Single Undertaking )」模式且可從不同議題間相互掛勾,加上開發中及低度開發會員採取結盟方式來壯大談判立場,在某些關鍵議題與美國、歐盟等主要會員國形成抗衡局面。 開發中國家對於 TRIPs 第 27 條第 3 項 b 款的審議特別在乎,認為 TRIPs 協定應該修訂應納入上述的揭露需求外,還必須提供事先告知且同意 (prior informed consent) ,以及因該專利而獲取的利益與來源地分享之證明。   因此,印度提出修正 TRIPs 協定的建議,強制會員國必須改變內國法律,規定專利申請者必須揭露其發明所使用的生物物質來源,並希望能在今年 12 月香港部長會議裡討論。

加拿大運輸部發布2025無人機方案,提出建立無人機交管系統等優先項目

  加拿大運輸部(Transport Canada)於2021年3月22日發布「2025無人機方案」(Transport Canada’s Drone Strategy to 2025),概述其對無人機的願景及方案,並提出其至2025年前所應優先關注之項目,以確保無人機安全地整合進現代化航空系統並進入空域中。   為因應無人機產業發展帶來新挑戰及機會,加拿大運輸部列出五點事項做為對總體政策及優先事項之考量,包括: (一)透過安全規範支持創新:相關方案包含為偏鄉地區操作較低風險之視距外操作制定規範、為中度風險視距外操作核發飛行操作許可、在實際操作環境中測試技術,以及核准相關試行計畫,以提供中度風險之視距外操作更多的政策規劃資訊。 (二)建立無人機交通管理系統:包括建立無人機飛行計畫、空域使用請求系統、通訊、導航及空域監管系統、自2021年於偏鄉地區進行無人機交通管理實驗、探索「數位牌照」(digital license plate)用於遠端識別無人機的選項,以作為無人機交通管理系統基礎。 (三)無人機的安全風險:與利益相關人合作釐清機場保安的角色與職責、通訊傳輸協定及突發事件回應期間的工作協調、評估機場威脅及漏洞以了解風險、探索反無人機技術、對未經授權無人機的侵入進行偵測及追踪,以及導入驅逐未經授權無人機的安全框架。 (四)創新推動經濟發展:促進短、中期研發計畫、對先進無人機研發活動尋求合作機會、尋求能為加拿大氣候環境與操作提供資料的優先研發項目、制定方案使新型無人機技術更容易被國際市場接受、針對無人機之營運框架及產業目標進行評估、擬定產業合作策略並促進現有航空經濟框架現代化。 (五)建立民眾對無人機的信任:為增進民眾對無人機的認識及接受度,制定行動計畫、與地方政府共同規劃營運、鼓勵更多的社群參與,並與執法單位持續合作執行安全無人機操作規則。   加拿大運輸部將對本方案定期進行評估並於2025年前完成總體檢視,並公布2025-2030年的無人機發展方案。

美國國際消費電子展研討會討論有關打擊專利蟑螂議題

  美國國際消費電子展(International Consumer Electronics Show, CES)是每年全球介紹消費性電子產品的第一場重頭戲,2013年於美國時間1月8日在拉斯維加斯會議中心(Las Vegas Convention Center, LVCC)展開,展期持續四天。CES展展出面積17萬平方公尺,有超過3,250個參展公司,展出20,000種最新科技的電子產品,超過15萬人次參加。除了展出電子產品最新趨勢,CES同時也對於電子資訊相關議題開設研討會議,今年共有超過300場的研討會。   其中有一系列名為「創新政策高峰會」(Innovation Policy Summit)的研討會主題,討論政府部門如何與企業合作促進經濟成長及創新應用。高峰會中除邀請各科技領域中的創新發明者,還邀請政府部門、國會議員等,討論與科技政策最相關的種種議題。值得注意的是,創新政策高峰會中一場主題為「打擊專利蟑螂」(Fighting the Patent Trolls)的研討會於1月8日舉行,討論有關政府及民間業者如何打擊影響科技產業的專利蟑螂(Patent Trolls),與會者除了有眾議員Peter DeFazio,還有Google、電子前線基金會(Electronic Frontier Foundation,EFF)、電子製造商Voxx International、零售商Home Automation等等企業代表,分享被專利蟑螂控訴專利侵權的經驗及提供意見。   在研討會中討論出的打擊方案有以下幾點: ‧擴展DeFazio眾議員提案的「保護高科技創新者免於惡意訴訟法案」(The Saving High-tech Innovators from Egregious Legal Disputes Act, SHIELD Act)到其他受專利蟑螂攻擊的產業,同時修改法案要求原告應在法院判決其負擔被告訴訟費用時,同時提出擔保金。 ‧應簡化專利局審核時質疑(challenge)不良專利的程序。 ‧在專利訴訟中對實際損害(actual damages)應提出更明確證據,並應更嚴格審查核發初步禁制令。 ‧科技公司應設法自救或組成聯盟,或者推廣Twitter公司2012年提出的「專利發明者協議」(Innovator Patent Agreement),該協議讓公司內專利發明者對其發明專利有更大控制權,並承諾公司僅會將其專利用於防衛用途。   其中第一點的SHIELD法案,是眾議員DeFazio及Jason Chaffetz為遏止專利蟑螂於2012年8月共同提案。該法案目標在打擊專利蟑螂,針對電腦軟硬體提出的專利訴訟,原告若無勝訴之合理可能性(reasonable likelihood of succeeding),法院得判決原告必須負擔被告訴訟費用及律師費用,以達到遏止專利蟑螂的目的。然而目前SHIELD法案立法進度停滯,DeFazio預計將提出修正版本爭取通過。DeFazio表示,該法案若要成功立法,需要各界聯合及廣泛支持。

用ChatGPT找法院判決?從Roberto Mata v. Avianca, Inc.案淺析生成式AI之侷限

用ChatGPT找法院判決?從Roberto Mata v. Avianca, Inc.案淺析生成式AI之侷限 資訊工業策進會科技法律研究所 2023年09月08日 生成式AI是透過研究過去資料,以創造新內容和想法的AI技術,其應用領域包括文字、圖像及影音。以ChatGPT為例,OpenAI自2022年11月30日發布ChatGPT後,短短二個月內,全球月均用戶數即達到1億人,無疑成為民眾日常生活中最容易近用的AI科技。 惟,生成式AI大量使用後,其中的問題也逐漸浮現。例如,ChatGPT提供的回答僅是從所學習的資料中統整歸納,無法保證資料的正確性。Roberto Mata v. Avianca, Inc.案即是因律師利用ChatGPT撰寫訴狀,卻未重新審視其所提供判決之正確性,以致後續引發訴狀中所描述的判決不存在爭議。 壹、事件摘要 Roberto Mata v. Avianca, Inc.案[1]中,原告Roberto Mata於2019年8月搭乘哥倫比亞航空從薩爾瓦多飛往紐約,飛行過程中膝蓋遭空服員的推車撞傷,並於2022年2月向法院提起訴訟,要求哥倫比亞航空為空服員的疏失作出賠償;哥倫比亞航空則主張已超過《蒙特婁公約》(Montreal Convention)第35條所訂之航空器抵達日起兩年內向法院提出損害賠償之請求時效。 R然而,法院審理過程中發現原告訴狀內引用之六個判決無法從判決系統中查詢,進而質疑判決之真實性。原告律師Steven A. Schwartz因而坦承訴狀中引用的六個判決是ChatGPT所提供,並宣稱針對ChatGPT所提供的判決,曾多次向ChatGPT確認該判決之正確性[2]。 貳、生成式AI應用之潛在風險 雖然運用生成式AI技術並結合自身專業知識執行特定任務,可能有助於提升效率,惟,從前述Roberto Mata v. Avianca, Inc.案亦可看出,依目前生成式AI技術之發展,仍可能產生資訊正確性疑慮。以下彙整生成式AI應用之8大潛在風險[3]: 一、能源使用及對環境危害 相較於傳統機器學習,生成式AI模型訓練將耗費更多運算資源與能源。根據波士頓大學電腦科學系Kate Saenko副教授表示,OpenAI的GPT-3模型擁有1,750億個參數,約會消耗1,287兆瓦/時的電力,並排放552噸二氧化碳。亦即,每當向生成式AI下一個指令,其所消耗的能源量相較於一般搜尋引擎將可能高出4至5倍[4]。 二、能力超出預期(Capability Overhang) 運算系統的黑盒子可能發展出超乎開發人員或使用者想像的隱藏功能,此發展將會對人類帶來新的助力還是成為危險的阻力,則會隨著使用者之間的相互作用而定。 三、輸出結果有偏見 生成式AI通常是利用公開資料進行訓練,若輸入資料在訓練時未受監督,而帶有真實世界既存的刻板印象(如語言、種族、性別、性取向、能力、文化等),據此建立之AI模型輸出結果可能帶有偏見。 四、智慧財產權疑慮 生成式AI進行模型訓練時,需仰賴大量網路資料或從其他大型資料庫蒐集訓練資料。然而,若原始資料來源不明確,可能引發取得資料未經同意或違反授權條款之疑慮,導致生成的內容存在侵權風險。 五、缺乏驗證事實功能 生成式AI時常提供看似正確卻與實際情形不符的回覆,若使用者誤信該答案即可能帶來風險。另外,生成式AI屬於持續動態發展的資訊生態系統,當產出結果有偏誤時,若沒有大規模的人為干預恐難以有效解決此問題。 六、數位犯罪增加與資安攻擊 過去由人工產製的釣魚郵件或網站可能受限於技術限制而容易被識破,然而,生成式AI能夠快速建立具高度說服力的各種擬真資料,降低詐騙的進入門檻。又,駭客亦有可能在不熟悉技術的情況下,利用AI進一步找出資安弱點或攻擊方法,增加防禦難度。 七、敏感資料外洩 使用雲端服務提供商所建立的生成式AI時,由於輸入的資料存儲於外部伺服器,若要追蹤或刪除有一定難度,若遭有心人士利用而導致濫用、攻擊或竄改,將可能產生資料外洩的風險。 八、影子AI(Shadow AI) 影子AI係指開發者未知或無法控制之AI使用情境。隨著AI模型複雜性增加,若開發人員與使用者未進行充分溝通,或使用者在未經充分指導下使用 AI 工具,將可能產生無法預期之風險。 參、事件評析 在Roberto Mata v. Avianca, Inc.案中,法院關注的焦點在於律師的行為,而非對AI技術使用的批判。法院認為,隨著技術的進步,利用可信賴的AI工具作為協助用途並無不當,惟,律師應踐行其專業素養,確保所提交文件之正確性[5]。 當AI科技發展逐漸朝向自主與獨立的方向前進,仍需注意生成式AI使用上之侷限。當個人在使用生成式AI時,需具備獨立思考判斷的能力,並驗證產出結果之正確性,不宜全盤接受生成式AI提供之回答。針對企業或具高度專業領域人士使用生成式AI時,除確認結果正確性外,更需注意資料保護及治理議題,例如建立AI工具合理使用情境及加強員工使用相關工具之教育訓練。在成本能負擔的情況下,可選擇透過企業內部的基礎設施訓練AI模型,或是在訓練模型前確保敏感資料已經加密或匿名。並應注意自身行業領域相關法規之更新或頒布,以適時調整資料使用之方式。 雖目前生成式AI仍有其使用之侷限,仍應抱持開放的態度,在技術使用與風險預防之間取得平衡,以能夠在技術發展的同時,更好地學習新興科技工具之使用。 [1]Mata v. Avianca, Inc., 1:22-cv-01461, (S.D.N.Y.). [2]Benjamin Weiser, Here’s What Happens When Your Lawyer Uses ChatGPT, The New York Times, May 27, 2023, https://www.nytimes.com/2023/05/27/nyregion/avianca-airline-lawsuit-chatgpt.html (last visited Aug. 4, 2023). [3]Boston Consulting Group [BCG], The CEO’s Roadmap on Generative AI (Mar. 2023), https://media-publications.bcg.com/BCG-Executive-Perspectives-CEOs-Roadmap-on-Generative-AI.pdf (last visited Aug. 29, 2023). [4]Kate Saenko, Is generative AI bad for the environment? A computer scientist explains the carbon footprint of ChatGPT and its cousins, The Conversation (May 23, 2023.), https://theconversation.com/is-generative-ai-bad-for-the-environment-a-computer-scientist-explains-the-carbon-footprint-of-chatgpt-and-its-cousins-204096 (last visited Sep. 7, 2023). [5]Robert Lufrano, ChatGPT and the Limits of AI in Legal Research, National Law Review, Volume XIII, Number 195 (Mar. 2023), https://www.natlawreview.com/article/chatgpt-and-limits-ai-legal-research (last visited Aug. 29, 2023).

TOP