蘋果電腦(Apple)於2009年4月23日被美國德州東區地方法院判定侵害OPTi 公司之專利並且必須賠償美金$1900萬元。此項專利涉及記憶體之”predictive snooping” 技術。陪審團並認為蘋果電腦之行為構成故意侵權。蘋果電腦雖主張OPTi 公司之專利為無效,但此抗辯不為法院所採納。
OPTi 公司自2003年開始即放棄其原有的製造與販賣產品的生意,改經藉由提起侵權訴訟來獲取利益。除了控告蘋果電腦外,OPTi 公司也針對其”predictive snooping” 專利技術於同一法院對AMD 公司提出類似的專利侵權訴訟。由蘋果電腦此次被判敗訴來看,OPTi 公司似乎已準備好擴大藉由它所擁有的predictive snooping” 技術專利以提起訴訟的方式來獲取授權收益。如同以往,蘋果電腦未對此次被判侵權賠償做出任何評論。
美國國會於2021年3月9日提出「2021年儲能稅制獎勵及設置法草案」(Energy Storage Tax Incentive and Deployment Act of 2021, H.R.1684),擬擴大投資稅額抵減制度(Investment Tax Credit)之適用範圍。有鑑於現行投資稅額抵減制度並不包含儲能設備,然儲能設備對於再生能源發展又具有重要地位,故為獎勵儲能設備之設置,同時輔助再生能源發展,美國國會遂提出前揭草案,並修正美國1986年國內稅收法(Internal Revenue Code of 1986, 26 U.S. Code)§48(a)(3)(A)(vii)以及§25D(a)規定,擬將投資稅額抵減制度擴張及於儲能設備,亦即,未來如草案通過後,不論是發電業者或用電戶只要有合乎規範設置儲能設備,即可適用投資稅額抵減制度,並依照其投資於儲能設備之額度抵減所得稅。 依照美國1986年國內稅收法,現行美國投資稅額抵減制度主要是依照發電業者或用電戶「開始設置再生能源發電設備之時點」以及「設置成本」給予不同程度之所得稅抵減,如發電業者或用電戶越早開始設置再生能源發電設備,發電業者或用電戶可申請抵減所得稅之額度則越高,最高可達該再生能源發電設備成本之30%;反之,如開始設置的時間越晚,則可申請抵減所得稅之額度則越低。舉例言之,如申請人於2020年1月1日以前開始設置再生能源發電設備,而於2024年1月1日前將再生能源發電設備投入營運,此時可申請抵減所得稅之額度可達該再生能源發電設備成本之30%,反之,如為2021年間開始設置,而於2024年1月1日前將再生能源發電設備投入營運,此時可申請抵減所得稅之額度僅有該再生能源發電設備成本之22%。 依美國國家稅務局(Internal Revenue Service, IRS)「針對投資稅額抵減制度施工起點標準」行政函釋(Beginning of Construction for the Investment Tax Credit),有兩種判定再生能源發電設備有開始設置之標準,其一為「物理工作物標準」(Physical Work Test),其二為「5%成本支出標準」(Five Percent Safe Harbor),申請人只要符合任一標準,即可被認定有開始再生能源發電設備設置之行為。於「物理工作物標準」下,只要該再生能源發電設備之重要基礎零件已開始組裝,即可被認定為已經有再生能源發電設備設置的行為;於「5%成本支出標準」下,只要申請人已經支出該再生能源發電設備成本之5%,即可被認定有開始再生能源發電設備設置之行為。但不論以上開何種標準,申請人都必須有不中斷且持續進行設置之事實,始可被認定為其開始設置再生能源發電設備的時間點較早,而申請抵減較多之所得稅,否則即有可能被認定開始設置的時間點較晚,而僅得申請抵減較少之所得稅。
2011年個人資料外洩事件與前年相比減少128件,總數為1551件-預測賠償金額比前年擴大1.5倍日本2011年個人資料外洩事件及事故的件數比前年減少為1551件,但洩漏的個人資料筆數卻超過前年一成以上,約有600萬筆個人資料外洩。從數字來看預估的賠償金額是超過1900億日幣。 日本網路資安協會(JNSA)與資訊安全大學研究所的原田研究室及廣松研究室共同針對報紙集網路媒體所報導的個人資料外洩相關事件及事故所進行的調查所做的結論。 新力集團旗下的海外公司雖然發生合計超過1億筆的大規模個人資料外洩的意外,但此一事故並無法明確判別是否屬於個人資料保護法的適用範圍,因此從今年的調查對象裡排除。 在2011年發生的資料外洩事件有1551件,比起前年的1679件減少128件,大約跟2009年所發生的個人資料外洩差不多水準。外洩的個人資料筆數總計約628萬4363筆,與前年相較約增加70萬筆。平均1件約洩漏4238筆個人資料。 將事故原因以件數為基礎來分析,可以發現「操作錯誤」佔全體的34.8%為第一位,其次是「管理過失」佔32%,再接下來是「遺失、忘記帶走」佔13.7%。但以筆數來看,值得注意的是「管理過失」佔37.7%最多,但「操作錯誤」就僅有佔2.3%的少數。 再以佔全體事件件數5%的「違法攜出」就佔了全體筆數的26.9%;在佔全體件數僅有1.2%的「違法存取」卻在筆數佔了20.9%,可以看到平均每一件的受害筆數有開始膨脹的傾向。 再者從發生外洩原因的儲存媒體來看,紙本佔了以件數計算的68.7%的大多數,以USB記憶體為首的外接式記憶體佔了10.1%;但以筆數計算的話,外接式記憶體佔了59.1%、網路佔了25.5%的不同的發生傾向。 從大規模意外來看,金融機關與保險業界是最值得注意,前10件裡佔了7件。從發生原因來看,「違法攜出」及「內部犯罪」所造成的事故10件中有4件,其次是「管理過失」。規模最大的是山陰合同銀行的受委託人將業務所需的165萬7131件個人資料攜出的事故。 依據2011年所發生的事件及事故的預估賠償額是1899億7379萬日幣。遠超過前年的1215億7600萬日幣。平均一起事件預估損害賠償金額有1億2810萬日幣,每人平均預估賠償金額是4萬8533日幣。
Apple Inc. 因販售個人資料面臨團體訴訟三位來自Massachusetts州的州民,以Apple Inc.(下稱Apple)為被告,於該州地方法院提起團體訴訟。其等主張在2012年至2013年間,透過信用卡於Massachusetts州Apple的零售商店購買該公司相關商品時,Apple有過度蒐集與不當利用個人資料之情形。據Apple網站指出,消費者得選擇透過信用卡的方式購買商品,然若選擇信用卡方式付費,必須提供個人相關識別訊息,包含完整的郵政編碼,如果提供不完整,Apple將不會允許使用消費者使用信用卡方式付費;且Apple亦在網站上聲稱保有允許提供該類訊息予提供產品和服務的合作夥伴,或得利用該類訊息幫助行銷的權利。故原告等透過信用卡消費後,收到不必要的市場行銷資訊;又Apple將原告等人可識別的個人資訊銷售第三方公司,並在未顧及原告等權益下,挪用了該具有經濟價值的個人可識別資訊。基於上述理由,原告等請求至少500萬元美金之損害賠償,其中不包含訴訟費用以及相關利息等其他費用。 依據Mass. Gen. Laws ch. 93 §105 規定,不論是個人、商號、合夥、公司或一切營業人,當接受信用卡交易模式時,並不能要求消費者填寫任何個人可識別的資訊。若法院同意原告們的訴求,Apple將因「不公平且欺騙之貿易行為」而被認定違反該州法律而必須負擔賠償責任,且Apple也將被要求停止蒐集全州的個人可識別資料。
美國國家標準與技術研究院公布人工智慧風險管理框架(AI RMF 1.0)美國國家標準與技術研究院(National Institute of Standards and Technology, NIST)於2023年1月26日公布「人工智慧風險管理框架1.0」(Artificial Intelligence Risk Management Framework, AI RMF 1.0),該自願性框架提供相關資源,以協助組織與個人管理人工智慧風險,並促進可信賴的人工智慧(Trustworthy AI)之設計、開發與使用。NIST曾於2021年7月29日提出「人工智慧風險管理框架」草案進行公眾徵詢,獲得業界之建議包含框架應有明確之衡量方法以及數值指標、人工智慧系統設計時應先思考整體系統之假設於真實世界中運作時,是否會產生公平性或誤差的問題等。本框架將隨著各界使用後的意見回饋持續更新,期待各產業發展出適合自己的使用方式。 本框架首先說明人工智慧技術的風險與其他科技的差異,定義人工智慧與可信賴的人工智慧,並指出設計該自願性框架的目的。再來,其分析人工智慧風險管理的困難,並用人工智慧的生命週期定義出風險管理相關人員(AI actors)。本框架提供七種評估人工智慧系統之信賴度的特徵,包含有效且可靠(valid and reliable):有客觀證據證明人工智慧系統的有效性與系統穩定度;安全性(safe):包含生命、健康、財產、環境安全,且應依照安全風險種類決定管理上的優先次序;資安與韌性(secure and resilient);可歸責與資訊透明度(accountable and transparent);可解釋性與可詮譯性(explainable and interpretable);隱私保護(privacy-enhanced);公平性—有害偏見管理(fair – with harmful bias managed)。 本框架亦提出人工智慧風險管理框架核心(AI RMF Core)概念,包含四項主要功能:治理、映射(mapping)、量測與管理。其中,治理功能為一切的基礎,負責孕育風險管理文化。各項功能皆有具體項目與子項目,並對應特定行動和結果產出。NIST同時公布「人工智慧風險管理框架教戰手冊」(AI RMF Playbook),提供實際做法之建議,並鼓勵業界分享其具體成果供他人參考。