日本科技政策的制定依據來自日本「科學技術基本法」,該法第九條規定,要求國家在推動科技振興發展上,政府應制訂有關科學技術振興的「科學技術基本計畫」。「科學技術基本計畫」之推動以五年為一期,最近一期為第五期(2016-2020年),該期計畫以人工智慧與資通訊技術為核心,解決各式重要社會課題,打造「超智慧社會」,並命名為「Society 5.0」。
「Society 5.0」明訂日本實現超智慧社會的政策方向,其政策重點聚焦於產業創造與社會變革,並重新架構產業與整個社會的關係,因此,除了強化產業競爭力,實現產業變革以外,「Society 5.0」也規劃解決日本近年社會課題,包括老齡化社會、勞動力不足、能源短缺與自然災害等。而在前瞻性預測上,「Society 5.0」描繪20年後未來人類將生活在為高度電腦化、智慧化環境,為實現該目標,發展物聯網、大數據分析、電腦科學與技術、人工智慧與網路安全等相關科技基礎技術研發與應用,是「Society 5.0」的核心之一。
簡單來說,「Society 5.0」追求以人為中心的新經濟社會,運用高度融合網路虛擬空間及物理現實空間的相關技術,滿足未來人類生活上的各種需求,同步解決經濟發展與社會課題,並以此建構更貼近符合個人需求之社會。
本文為「經濟部產業技術司科技專案成果」
美國電子隱私資訊中心(The Electronic Privacy Information Center, EPIC)向聯邦貿易委員會(Federal Trade Commission, FTC)檢舉Uber利用手機軟體"God view"追蹤並蒐集軟體用戶(乘客)位置資訊,並利用該資訊發送廣告給乘客。EPIC主張該作法為違法、詐欺的商業模式。 議員Al Franken對該軟體用戶服務條款也提出質疑,因該服務條款載明即使用戶終止使用,該軟體仍將繼續蒐集用戶的位置資訊,並可無限期使用用戶的個人資料。雖然Uber後續對該服務條款進行增修,但仍對外主張保有最後解釋的權利。 EPIC認為目前依「駕駛隱私法」(Driver's Privacy Act )的規定,除具要求提供車輛資料的法源依據,或個人同意並被告知資料將如何使用之情形,才可以蒐集該車輛資料以維護駕駛隱私,否則不得蒐集與該車輛的任何記錄與資料。然而,EPIC亦認為應立法禁止使用軟體追蹤乘客與蒐集其資料。EPIC同時也建議應制定法規限制 Google、Facebook、Whatsapp、Snapchat等公司追蹤及蒐集顧客資料。對此,Facebook僅表示會確保用戶的位置資訊不被濫用,而Google則拒絕對此發表評論。 另外,EPIC認為Uber蒐集用戶位置資訊,並隨著時間的推移來追蹤用戶(乘客)動向資料並進行廣告行銷,對用戶的隱私權保護並不完整,且用戶資料也有被盜取之可能,因此,EPIC希望FTC能對Uber"God view"軟體進行調查,希望促成規制用戶(乘客)資料蒐集、處理與利用的商業模式。
因應京都議定書生效壓力 工廠溫室氣體減量 將訂規範全國能源會議於六月二十日登場,面對京都議定書生效壓力,新舊工廠未來究竟應如何減量,備受企業高度關切,經濟部已擬出政策規劃,將自二○○七年開始推動既設工廠溫室氣體減量措施,至二○一五年減量一○%(二千年為減量基準年)。 工業部門溫室氣體排放量占全國排放總量五五%,但占全國 GDP 比例逐漸減少,工業局計畫在全國能源會議中,提出多項溫室氣體減量措施。 為建立產業減量機制,工業局規劃出短、中、長期三階段減量計畫外,並提出攸關溫室氣體查核機制的能源效率計算模式,藉由會議尋求共識後,逐步落實。 據瞭解,能源效率計算機制因各國規劃採取的措施不同而所有差異,有國家採用每人耗能量為計算基準,也有以生產產品所需耗能量計算,或是每創造單位國內生產毛額所需耗用的能源計算(即能源密集度)。 工業局認為,以能源密集度做為我國工業查核指標,可顯示能源消費與該產業的邊際效應變化趨勢,有助於落實工業部門減量策略的執行,因此建議我國未來在產業溫室氣體排放查核機制上,以能源密集度為查核指標。 至於,在溫室氣體減量機制上,工業局規劃我國自二○○七年時推動既設工廠實施溫室氣體減量措施,並至二○一五年時達到溫室氣體排放密集度降低一○%的目標,而其減量的基準年為二千年;在新設廠方面,則以全球一○%標竿能源效率製程的排放密集度擬訂排放標準加以審議。
世界衛生組織公布「人工智慧於健康領域之倫理與治理」指引世界衛生組織(World Health Organization, WHO)於2021年6月底公布「人工智慧於健康領域之倫理與治理」(Ethics and governance of artificial intelligence for health)指引。目前人工智慧於在改善診斷、治療、健康研究、藥物開發及公共衛生等健康領域皆有廣泛之應用與前景,而該指引首先指出人工智慧應用於健康領域中最相關之法律與政策外,並強調相關應用皆須以「倫理」及「人權」作為相關技術設計、部署與使用之核心,最後則提出人工智慧應用於健康領域之六大關鍵原則: 一、保護人類自主性(autonomy):本指引認為人類仍應該掌有關於醫療保健系統之所有決定權,而人工智慧只是輔助功能,無論是醫療服務提供者或患者皆應在知情之狀態下作決定或同意。 二、促進人類福祉、安全與公共利益:人工智慧不應該傷害人類,因此須滿足相關之事前監管要求,同時確保其安全性、準確性及有效性,且其不會對患者或特定群體造成不利影響。 三、確保透明度、可解釋性與可理解性(intelligibility):開發人員、用戶及監管機構應可理解人工智慧所作出之決定,故須透過記錄與資訊揭露提高其透明度。 四、確立責任歸屬(responsibility)與問責制(accountability):人工智慧在醫學中所涉及之內部責任歸屬相當複雜,關於製造商、臨床醫師及病患間相關之問責機制之設計將會成為各國之挑戰,故須存在有效之機制來確保問責,也應避免責任分散之問題產生。 五、確保包容性(inclusiveness)與衡平性(equity):應鼓勵應用於健康領域之人工智慧能被廣泛且適當地使用,無論年齡、性別、收入及其他特徵而有差別待遇,且應避免偏見之產生。 六、促進具適應性(responsive)及可持續性之人工智慧:人工智慧應符合設計者、開發者及用戶之需求與期待,且能充分具適應性之回應且符合使用環境中之要求。
新時代的管理利器-系統化的企業員工管理制度