本文為「經濟部產業技術司科技專案成果」
新加坡國立大學生物工程系科研人員宣佈,他們利用天然聚合物製成可以診斷癌細胞、又可殺死癌細胞的奈米載體。該系助理教授張勇相信,這是全球首次成功利用天然聚合物製成奈米顆粒。 研究甲殼素多年的張勇指出,從螃蟹、蝦殼中提煉出來的甲殼素,在實驗室內製成奈米顆粒的過程中,最困難的就是體積的控制,因為天然聚合物分子一般比較大。但最後仍突破瓶頸,以甲殼素研製出直徑約五十奈米的奈米顆粒,很容就可以被比它大一百倍到四百倍的人體細胞吸收。他說,這種利用天然聚合物製成的奈米顆粒,具備適合生物體、擁有生物功能等特性。 這些奈米顆粒將可用來裝載被稱為人工原子,以細微半導體材料製成的量子點和藥物。由於量子點受光源照射時會發光,不同大小量子點發出不同的光,發光時間可以維持幾個小時。因此把裝載量子點和藥物的奈米顆粒送入讓癌細胞吸收後,就可用光源照射,讓醫生可以辨認哪些是癌細胞,再把癌細胞殺死。目前其已與國大醫學院展開合作,在成肌細胞內注入裝載量子點的奈米顆粒,然後把成肌細胞移植到動物心臟,以進一步了解成肌細胞如何修復心臟組織。
澳洲政府提案立法強制要求跨國科技公司協助解密通訊APP訊息澳洲政府2017年07月14日宣布提案立法新資安法規,強制要求跨國科技公司如社群網站Facebook與設備製造廠商Apple等,需配合法院命令,協助解鎖通訊APP的加密訊息,利於政府監控攔截犯罪嫌疑人的加密訊息。澳洲政府同時宣布會在2017年11月前提案,預期在幾個月內通過。 澳洲總理Turnbull表示相關提供加密語音及訊息的APP已在日常生活中使用,根據法案,前述相關網路科技公司,將與電信公司負有相同義務協助執法單位解讀加密訊息。Turnbull表示,儘管政府已成功阻止部分激進份子案例,但由於訊息加密技術日益發展,執法機構愈來愈難取得諸如恐怖分子、販毒者與戀童癖的聯絡訊息,執法單位需要更多支援,以確保網路不會成為犯罪溫床。 澳洲預期成為首個立法監管網路加密語音及訊息APP的國家,目前英國與法國皆在研擬監管加密語音及訊息的法規,同時美國、英國、加拿大、澳洲與紐西蘭組成的「Five Eyes」情報共享聯盟,也在2017年07月將相關議題列入討論。 Facebook表示將抵制Turnbull政府的反加密立法,認為現行已有與安全部門共同合作機制,該法案並無實際用途,在無配套措施的情況,該法也無法實施。Apple執行長Tim Cook 則堅定回應,排除任何可能損及產品安全性的政府合作關係。
生物識別技術走進零售業近期幾家大信用卡公司遭駭客入侵,使得消費者受到了越來越大的身份被盜用的威脅。對此,能使購物更加安全的技術,特別是生物識別技術,包括電影中常見到的虹膜掃描,以及相對普及的指紋,聲音,臉部特徵識別等,越來越引發了人們的興趣。 目前,美國第二大零售連鎖店 Albertson 已經和其他數百個零售商一起加入了生物識別付款的試點行列。該公司發言人表示,新付款方式則大大加速了結帳的速度;另外也可以自動識別是否賣菸酒給未成年人。 不過生物識別技術的根本的缺陷在於隱私問題,因?這項技術意味著對個人資訊的集中儲存。而這個系統必然會成?駭客和其他居心不良者的「蜜罐」,一旦這個儲存系統被攻破,並將受害者的生物資訊惡意更改,受害者將面臨身份被終極盜用的噩夢。
人權組織向法國最高行政法院提交申訴,要求政府停止使用歧視性演算法.Pindent{text-indent: 2em;} .Noindent{margin-left: 2em;} .NoPindent{text-indent: 2em; margin-left: 2em;} .No2indent{margin-left: 3em;} .No2Pindent{text-indent: 2em; margin-left: 3em} .No3indent{margin-left: 4em;} .No3Pindent{text-indent: 2em; margin-left: 4em} 國際特赦組織(Amnesty International)與法國數位隱私權倡議團體La Quadrature du Net(LQDN)等組織於2024年10月15日向法國最高行政法院提交申訴,要求停止法國國家家庭津貼基金機構(Caisse nationale des allocations familiales,CNAF)所使用的歧視性風險評分演算法系統。 CNAF自2010年起即慣於使用此系統識別可能進行福利金詐欺的對象,該系統演算法對獲取家庭與住房補助的對象進行0至1之間的風險評分,分數越接近1即越可能被列入清單並受調查,政府當局並宣稱此系統將有助於提升辨識詐欺與錯誤的效率。 LQDN取得該系統的原始碼,並揭露其帶有歧視性質。該等組織說明,CNAF所使用的評分演算法自始即對社會邊緣群體如身心障礙者、單親家長,與低收入、失業、居住於弱勢地區等貧困者表現出懷疑態度,且可能蒐集與系統原先目的不相稱的資訊量,這樣的方向直接違背了人權標準,侵犯平等、非歧視與隱私等權利。 依據歐盟《人工智慧法》(Artificial Intelligence Act,下稱AIA),有兩部分規定: 1. 用於公機關評估自然人是否有資格獲得基本社會福利或服務,以及是否授予、減少、撤銷或收回此類服務的人工智慧系統;以及用於評估自然人信用或建立信用評分的人工智慧系統,應被視為高風險系統。 2. 由公機關或私人對自然人進行社會評分之人工智慧系統可能導致歧視性結果並排除特定群體,從此類人工智慧總結的社會分數可能導致自然人或其群體遭受不當連結或程度不相稱的不利待遇。因此應禁止涉及此類不可接受的評分方式,並可能導致不當結果的人工智慧系統。 然而,AIA並未針對「社會評分系統」明確定義其內涵、組成,因此人權組織同時呼籲,歐盟立法者應針對相關禁令提供具體解釋,惟無論CNAF所使用的系統為何種類型,因其所具有的歧視性,公機關皆應立即停止使用並審視其具有偏見的實務做法。