新加坡資通訊發展局(Infocomm Development Authority, IDA)於2008年9月26日宣布,新加坡政府計畫投入7.5億新加坡幣資金建置之次世代國家寬頻網路(Next Generation National Broadband Network, NGNBN)由OpenNet公司得標,負責建置及維運次世代國家寬頻網路中靜態基礎設施(passive infrastructure)部分。 新加坡之次世代國家寬頻網路預計在2010年時提供60%家戶光纖網路接取服務,至2012年6月份時,則可提供新加坡95%家戶光纖網路接取服務。就寬頻接取速度而言,初期可提供100Mbps之頻寬,待建置完成後則預估可提供之頻寬達1Gbps。未來,OpenNet公司將可在2年內從新加坡電信(Sing Tel)取得該公司已建置之管道、交換器等基礎設備。 待網路建置完成後,OpenNet公司必須以住宅區光纖接取每月15元新加坡幣,非住宅光纖接取每月50元之價格,無差別地提供批發服務予網路接取服務提供業者,而不得自己提供接取服務予企業及一般家庭用戶。其次,為鼓勵建築所有人接取光纖網路,OpenNet公司在鋪設光纖網路進入建築時,將不收取任何裝置費用。預計自2013年起,在普及服務義務之要求下,OpenNet公司亦將持續負責將光纖網路接取至住宅、辦公大樓或其他建築物。換言之,OpenNet公司預計在2012年完成現有建築之光纖網路佈建,並於2013年起以履行普及服務義務之方式,持續光纖網路之建置工作。
歐洲個人資料保護委員會發布數位服務法與一般資料保護規則相互影響指引「歐洲資料保護委員會」(European Data Protection Board, EDPB)於2025年9月12日發布《數位服務法》(Digital Services Act, DSA)與《一般資料保護規則》(General Data Protection Regulation, GDPR)交互影響指引(Guidelines 3/2025 on the interplay between the DSA and the GDPR)。這份指引闡明中介服務提供者(intermediary service providers)於履行DSA義務時,應如何解釋與適用GDPR。 DSA與GDPR如何交互影響? 處理個人資料的中介服務提供者,依據處理個資的目的和方式或僅代表他人處理個資,會被歸屬於GDPR框架下的控制者或處理者。此時,DSA與GDPR產生法規適用的交互重疊,服務提供者需同時符合DSA與GDPR的要求。具體而言,DSA與GDPR產生交互影響的關鍵領域為以下: 1.非法內容檢測(Illegal content detection):DSA第7條鼓勵中介服務提供者主動進行自發性調查,或採取其他旨在偵測、識別及移除非法內容或使其無法存取的措施。指引提醒,中介服務提供者為此採取的自發性行動仍須遵守GDPR要求的處理合法性,而此時最可能援引的合法性依據為GDPR第6條第1項第f款「合法利益」(legitimate interests)。 2.通知與申訴等程序:DSA所規定設通報與處置機制及內部申訴系統,於運作過程中如涉及個資之蒐集與處理,應符GDPR之規範。服務提供者僅得蒐集履行該義務所必須之個人資料,並應確保通報機制不以通報人識別為強制要件。若為確認非法內容之性質或依法須揭露通報人身分者,應事前告知通報人。同時,DSA第20條與第23條所規範之申訴及帳號停權程序,均不得損及資料主體所享有之權利與救濟可能。 3.禁止誤導性設計模式(Deceptive design patterns):DSA第25條第1項規範,線上平台服務提供者不得以欺騙或操縱其服務接收者之方式,或以其他實質扭曲或損害其服務接收者作出自由且知情決定之能力之方式,設計、組織或營運其線上介面,但DSA第25條第2項則宣示,線上平台提供者之欺瞞性設計行為若已受GDPR規範時,不在第25條第1項之禁止範圍內。指引指出,於判斷該行為是否屬 GDPR 適用範圍時,應評估其是否涉及個人資料之處理,及該設計對資料主體行為之影響是否與資料處理相關。指引並以具體案例補充,區分屬於及不屬於 GDPR 適用之欺瞞性設計模式,以利實務適用。 4.廣告透明度要求:DSA第26條為線上平台提供者制定有關廣告透明度的規範,並禁止基於GDPR第9條之特別類別資料投放廣告,導引出平台必須揭露分析之參數要求,且平台服務提供者應提供處理個資的法律依據。 5.推薦系統:線上平台提供者得於其推薦系統(recommender systems)中使用使用者之個人資料,以個人化顯示內容之順序或顯著程度。然而,推薦系統涉及對個人資料之推論及組合,其準確性與透明度均引發指引的關切,同時亦伴隨大規模及/或敏感性個人資料處理所帶來之潛在風險。指引提醒,不能排除推薦系統透過向使用者呈現特定內容之行為,構成GDPR第22條第1項的「自動化決策」(automated decision-making),提供者於提供不同推薦選項時,應平等呈現各項選擇,不得以設計或行為誘導使用者選擇基於剖析之系統。使用者選擇非剖析選項期間,提供者不得繼續蒐集或處理個人資料以進行剖析。 6.未成年人保護:指引指出,為了符合DSA第28條第1項及第2項所要求於線上平台服務中實施適當且相稱的措施,確保未成年人享有高度的隱私、安全與保障,相關的資料處理得以GDPR第6條第1項第c款「履行法定義務」作為合法依據。 7.系統性風險管理:DSA第34與35條要求超大型在線平台和在線搜索引擎的提供商管理其服務的系統性風險,包括非法內容的傳播以及隱私和個人數據保護等基本權利的風險。而指引進一步提醒,GDPR第25條所設計及預設之資料保護,可能有助於解決這些服務中發現的系統性風險,並且如果確定系統性風險,根據GDPR,應執行資料保護影響評估。 EDPB與其他監管機關的後續? EDPB的新聞稿進一步指出,EDPB正在持續與其監管關機關合作,以釐清跨法規監理體系並確保個資保護保障之一致性。後續進一步的跨法域的指引,包含《數位市場法》(Digital Markets Act, DMA)、《人工智慧法》(Artificial Intelligence Act, AIA)與GDPR的相互影響指引,正在持續制定中,值得後續持續留意。
輝瑞在中國獲得威而鋼專利戰爭的勝利 Pfizer Emerges Victorious in China Viagra Patent Battle在未來三年,中國藥品市場將以每年20-25%的成長率快速成長,並且預估可在2010年成為世界第五大藥品市場。在中國加入世界貿易組織(World Trade Organization, WTO)之後,其廣大的市場以及商機吸引了許多海外藥品製造商的興趣。然而,因為中國對智慧財產保護的社會環境非常複雜,使得本土製造的學名藥以及複製產品仍然主宰其藥品市場。 在歷經六年的法律戰爭後,輝瑞終於在中國成功地捍衛其關於陽痿治療藥物Viagra的專利權。根據報導,北京高等人民法院已駁回來自12家本土製藥廠所提出的專利異議案,並且同意授予輝瑞對於Viagra的專利保護至2014年為止。 輝瑞於1994年提出以Sildenafil (Viagra)治療陽痿的專利申請。歷經七年的審查,中國知識產權局於2001年核准該專利申請案。隨後,12家本土製藥廠提出了該專利的異議案,而中國知識產權局的專利檢定所於2004年判定此專利無效。輝瑞很快地對此決議提出異議,2006年,北京中級人民法院作出對輝瑞有利的判決。雖然前述之本土製藥廠商針對此判決向北京高等人民法院提出訴願,但北京高等人民法院於週四正式駁回訴願,並指示SIPO撤銷先前的專利無效判定。 這個判決結果應有助於Viagra站穩中國的陽痿治療藥物市場。然而,輝瑞在中國仍然面臨許多挑戰。今年初,該公司輸掉一個關於Viagra的商標侵權官司。而輝瑞目前正上訴中。
英國資訊委員辦公室提出人工智慧(AI)稽核框架人工智慧(Artificial Intelligence, AI)的應用,已逐漸滲透到日常生活各領域中。為提升AI運用之效益,減少AI對個人與社會帶來之負面衝擊,英國資訊委員辦公室(Information Commissioner’s Office, ICO)於2019年3月提出「AI稽核框架」(Auditing Framework for Artificial Intelligence),作為確保AI應用合乎規範要求的方法論,並藉機引導公務機關和企業組織,評估與管理AI應用對資料保護之風險,進而建構一個可信賴的AI應用環境。 AI稽核框架主要由二大面向所構成—「治理與可歸責性」(governance and accountability)以及「AI特定風險領域」(AI-specific risk areas)。「治理與可歸責性」面向,係就公務機關和企業組織,應採取措施以遵循資料保護規範要求的角度切入,提出八項稽核重點,包括:風險偏好(risk appetite)、設計階段納入資料保護及透過預設保護資料(data protection by design and by default)、領導管理與監督(leadership management and oversight)、政策與程序(policies and procedures)、管理與通報架構(management and reporting structures)、文書作業與稽核紀錄(documentation and audit trails)、遵循與確保能力(compliance and assurance capabilities)、教育訓練與意識(training and awareness)。 「AI特定風險領域」面向,則是ICO特別針對AI,盤點下列八項潛在的資料保護風險,作為風險管理之關注重點: 一、 資料側寫之公平性與透明性(fairness and transparency in profiling); 二、 準確性(accuracy):包含AI開發過程中資料使用之準確性,以及應用AI所衍生資料之準確性; 三、 完全自動化決策模型(fully automated decision making models):涉及人類介入AI決策之程度,歐盟一般資料保護規則(General Data Protection Regulation, GDPR)原則上禁止無人為介入的單純自動化決策; 四、 安全性與網路(security and cyber):包括AI測試、委外處理資料、資料重新識別等風險; 五、 權衡(trade-offs):不同規範原則之間的取捨,如隱私保護與資料準確性; 六、 資料最少化與目的限制(data minimization and purpose limitation); 七、 資料當事人之權利行使(exercise of rights); 八、 對廣泛公共利益和權利之衝擊(impact on broader public interests and rights)。 ICO將持續就前述AI特定風險領域,進行更深入的分析,並開放公眾討論,未來亦將提供相關技術和組織上之控制措施,供公務機關及企業組織進行稽核實務時之參考。