中國大陸商務部於2020年9月19日發布「不可靠實體清單規定」(商務部令2020年第4號),作為建立對外國實體(包含外國企業、其他組織或個人)與中國大陸貿易或投資等國際經貿相關活動實施限制之依據。即便中國大陸商務部主張「不可靠實體清單規定」係為落實《對外貿易法》與《國家安全法》之要求,並未針對特定國家或特定實體,但在美中貿易對抗局勢下,仍被認為顯係針對美國商務部貿易管制規則「實體清單」的反制作為。
依據「不可靠實體清單規定」,中國大陸政府堅持獨立自主的對外政策,互相尊重主權並互不干涉內政,在平等互利的原則下,任何外國實體在國際經貿及相關活動中,凡涉及危害中國大陸國家主權、安全、發展利益,或是違反正常的市場交易原則、中斷與中國大陸企業、其他組織或個人的正常交易,或是對中國大陸企業、其他組織或個人採取歧視性措施,嚴重損害其合法權益,中國大陸即有權透過建立不可靠實體清單制度,對上述外國實體採取相應措施。
中國大陸國務院商務主管部門將設置專責組織,負責就經建議或舉報之外國實體進行調查,凡經調查而被公告列入不可靠實體清單者,中國大陸政府可採取的相應措施包含限制或禁止與中國大陸有關之進出口活動、在中國大陸境內投資、限制或禁止其相關人員或交通工具等入境、限制或取消相關人員的工作許可或居留資格、相應數額的罰款或其他必要措施。若中國大陸企業、其他組織或個人因特殊情況須與被限制之外國實體交易,應事前提出申請取得同意。
本文為「經濟部產業技術司科技專案成果」
中華人民共和國於今年(2005年)2月18日頒布「電子認證服務管理辦法」,該辦法乃是繼2004年8月頒布「中華人民共和國電子簽名法」後,針對電子認證服務產業所為之規範,目的在於使主管機關(中華人民共和國資訊產業部)對於憑證機構與電子認證服務之實施得有一明確之監督管理辦法(第4條),將於今年(2005年)4月1日正式施行。該辦法對於憑證機構之核可、電子認證服務之提供、暫停與終止、憑證應記載事項、憑證機構之審查義務、主管機關之監督管理辦法,以及相關罰責均予以明定。並於該法第41條設有過渡條款,明定憑證機構必須於今年(2005年)9月30日前取得電子認證服務許可,於今年(2005年)10月1日起,未取得許可者不得繼續從事電子認證服務,是以不採自願認可制。
韓國國會議員提出著作權法修法,擬導入著作權專業人員國家證照制度尹官石(Youn, Kwan-Suk)等11位韓國國會議員於2013年7月16日提出著作權法修正案,修法內容包括「導入著作權專門士及資格考試等制度」、「增訂著作權保護院設立之法源依據及相關業務規定」、「著作權保護院之審議委員會之組成」、「審議及發出糾正命令之主體變更為著作權保護院」。 韓國國會議員尹官石指出,雖然韓國著作權產業規模逐漸擴大,但據統計,著作權專業人才僅1萬3533位,專業人才明顯仍然不足。再者,著作權小規模訴訟也不斷增加。另外,現在雖有營運核發著作權相關資格證書業務之民間業者,但卻存在廣告誇大、課程內容不實,缺乏事後管理機制等問題,而造成市場混亂。為解決上述問題,韓國著作權法擬導入著作權專業人員之國家資格證照制度,希望藉以有效培育著作權專業人才,讓著作權產業得以健全發展。 另一方面,影視內容和電腦軟體為韓國著作權產業之核心,其所創造之附加價值及就業機會均呈現增加的趨勢,但相對來說,韓國音樂、電影、電視劇等內容常被非法重製,而這樣的非法重製行為造成3兆9758億韓圜之生產利益損失,減少3萬6千個就業機會。對此,為更有效推動著作權保護,並使著作權保護業務推動一元化,藉以促進文化內容產業發展,著作權法擬修法整併現有的著作權保護中心和韓國著作權委員會之功能,改設著作權保護院,以統合著作權保護業務。 在此一著作權法修正案之後,韓國文化體育觀光部及其它議員亦對其它著作權議題,如擴大著作權保護及合理使用範圍等,提出修正案,因此後續韓國著作權法的修法動態,值得持續關注。
梵諦岡與IBM、微軟聯合呼籲對臉部辨識等侵入性技術進行監管2020年2月28日梵諦岡教宗與兩大科技巨頭IBM及微軟聯合簽署「羅馬呼籲AI倫理道德」文件,支持制定人工智慧(AI)發展倫理與道德規範,並特別呼籲應針對臉部辨識等侵入性技術進行監管。在聯合文件上特別提及臉部識別技術潛在之濫用風險,例如警察會使用臉部辨識系統調查犯罪行為、《財富》500強公司使用AI審查求職者,這兩個例子均具有潛在且高度之風險,使用不正確或是具有偏見之AI判斷均可能會造成傷害。誠如方濟各在致辭中說:「人工智慧記錄個人資料,並使用於商業或政治目的,而且通常是在個人不知情之情況下,這種不對稱,將使少數人了解我們的一切,但我們卻對他們一無所知,這將使批判性思維和對自由的自覺變得遲鈍,不平等現象急遽擴大,知識和財富在少數人手中累積,將對民主社會構成重大風險。」 此次會議希望在國家與國際層面上共同努力促進AI道德規範,並根據以下原則來發展和使用人工智慧。第一,良好的創新:人工智慧系統必須是可理解得,並且在包容性方面必須考慮到所有人的需求,以便每個人都能受益。第二,責任:設計和實施人工智慧者必須承擔責任和保持透明度。第三,公正性:避免根據偏見進行創造或採取行動,從而維護人類平等和尊嚴。第四,可靠性:人工智慧系統必須能夠可靠的運行。第五,安全和隱私:人工智慧系統必須安全運行並尊重用戶的隱私。 目前尚不清楚其他技術公司是否會簽署該文件,以及簽署人將如何實施,但教宗與兩大科技巨頭史無前例的合作,為人工智慧未來發展方向提供遠見卓識,能更加深入的去思考AI的道德意涵以及它將如何與人類更好的合作、互動,互利共生,相輔相成。
德國社群媒體管理草案交付立法程序德國總理梅克爾(Angela Merkel)所領導的內閣於2017年4月5日通過社群媒體管理草案(Gesetz zur Verbesserung der Rechtsdurchsetzung in sozialen Netzwerken),該法案要求社群媒體必須積極管理使用者散布的仇恨言論及假消息,未善盡義務的社群媒體最高可裁罰5千萬歐元。 德國早於2015年12月已與Facebook、Google及Twitter等知名社群網站達成協議,必須在24小時內刪除網站上的不實或違法言論。但根據jugendschutz.net組織公布的數據,Facebook刪除了39%違法內容、Twitter只刪除了1%違法訊息,而Google的Youtube則需要以其他工具進行實測。由於社群媒體自我管理的效果不彰,促使德國政府認為在業者自律之外,必須要制定法律與罰則讓社群媒體負起責任,積極管理網站上使用者的不實與違法言論。 本草案重點包括: 適用範圍:本草案適用於電信媒體服務提供商,且該提供商之網路平台係以營利為目的,允許使用者與其他使用者共享訊息或對大眾分享任何資訊。 社群媒體必須設立24小時受理案件之投訴管道。 接到投訴後,社群媒體必須在24小時內刪除「明顯違法」之內容,其他有爭議的內容必須在7天內確認並刪除違法內容。 社群媒體必須定期提供主管機關其投訴之處置報告。 本草案已送交德國立法機關進行立法程序,但反對者認為一旦通過立法,可能會對言論自由產生不良影響,並抑制網路言論的發表。德國對於社群媒體之管理,值得持續關注。