日本新型態旅宿模式下誕生的民泊新法

  隨著以網路平台經營仲介事業的Airbnb服務開始流行,鎖定國外觀光客的個人住宅和投資型不動產出租產生一種新型態的商機,加上近年旅日遊客增加及2020東京奧運即將來臨,日本政府預期將會有短暫性遊客人數激增。為解決訪日旅客居住設施問題以及特定期間過後旅館閒置造成之資源浪費或倒產問題,日本將在明年(2018)六月施行住宅宿泊事業法(民泊新法)採取鬆綁民宿短期經營之法規限制。該法變革重點包含:

  1. 行政程序:原先依據旅館業法採取許可制,民泊新法施行後為申報制。
  2. 營業日數:層級化區分旅館與民泊限制年營業180日。
  3. 宿泊日數:解除住宿日限制(例如大阪民泊條例須三天兩夜以上)。
  4. 建物用途:原本必須為許可旅館,施行後住宅、公寓及招待所皆可。
  5. 營業地區:限制在住居專用地營業。

  本法施行後將可明顯區分旅館業與民泊業強化管理,並且呼應日本政府的經濟振興計畫,帶動兼業、副業及提供自營作業者從事經濟活動的管道。另外,因新法施行後合法民泊增加產生的新型態商機成為吸引大型平台或企業投入政府經濟再興計畫之誘因,進而提供協助個人民泊經營者申報、環境改善、及代理管理等業務,有利於政府推動相關社會安全網建置。

相關連結
你可能會想參加
※ 日本新型態旅宿模式下誕生的民泊新法, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=7926&no=57&tp=1 (最後瀏覽日:2026/03/17)
引註此篇文章
你可能還會想看
Airbnb針對紐約新短期租賃法規進行訴訟

  紐約市政府於2018年8月通過「短期租賃規則」(Regulation of Short-term Residential Rentals)。該規則將於通過後180天生效適用,強制要求平台業者必須定期提供下列數據報告給紐約市政府: 在交易中住房的地址,須包括街道名稱、公寓或單位號碼、鄉鎮及郵遞區號。 短租房東的地址、電話及email、網頁地址、姓名及該平台的房東數量。 廣告的個別名稱及網頁地址。 關於短期租賃的說明:註明出租的是整間公寓還是單一房間。 該建築透過訂房網站提供短期租賃之天數。 短期租賃的所有費用。 若該平台代收租金費用,則需提供費用明細。   若相關平台業者未提交報告,則須面臨1,500美元以下之罰鍰。目前紐約市是Airbnb在美國最大的市場,該項規則的通過及生效勢必會對Airbnb造成相當大的影響及成本負擔。因此Airbnb在該規則通過後不久,旋即向法院提起訴訟,聲稱該規範違反了平台用戶之隱私權及美國憲法第一及第四修正案所保障之權利。   紐約市政府方面則作出回應,這項規則可協助政府取得保護住房安全所需的關鍵資訊,並保證遊客及租賃者之安全,同時並打擊非法的短期出租。而該規則也顯示紐約政府對於短期日租套房之服務將趨向保守的態度。

IBM提出「人工智慧日常倫理」手冊作為研發人員指引

  隨著人工智慧快速發,各界開始意識到人工智慧系統應用、發展過程所涉及的倫理議題,應該建構出相應的規範。IBM於2018年9月02日提出了「人工智慧日常倫理」(Everyday Ethics for Artificial Intelligence)手冊,其以明確、具體的指引做為系統設計師以及開發人員間之共同範本。作為可明確操作的規範,該手冊提供了問責制度、價值協同、可理解性等關注點,以促進社會對人工智慧的信任。 一、問責制度(Accountability)   由於人工智慧的決策將作為人們判斷的重要依據,在看似客觀的演算系統中,編寫演算法、定義失敗或成功的程式設計人員,將影響到人工智慧的演算結果。因此,系統的設計和開發團隊,應詳細記錄系統之設計與決策流程,確保設計、開發階段的責任歸屬,以及程序的可檢驗性。 二、價值協同(Value Alignment)   人工智慧在協助人們做出判斷時,應充分考量到事件的背景因素,其中包括經驗、記憶、文化規範等廣泛知識的借鑑。因此系統設計和開發人員,應協同應用領域之價值體系與經驗,並確保演算時對於跨領域的文化規範與價值觀之敏感性。同時,設計師和開發人員應使人工智慧系統得以「了解並認知」用戶的價值觀,使演算系統與使用者之行為準則相符。 三、可理解性(Explainability)   人工智慧系統的設計,應盡可能地讓人們理解,甚至檢測、審視它決策的過程。隨著人工智慧應用範圍的擴大,其演算決策的過程必須以人們得以理解的方式解釋。此係讓用戶與人工智慧系統交互了解,並針對人工智慧結論或建議,進而有所反饋的重要關鍵;並使用戶面對高度敏感決策時,得以據之檢視系統之背景數據、演算邏輯、推理及建議等。   該手冊提醒,倫理考量應在人工智慧設計之初嵌入,以最小化演算的歧視,並使決策過程透明,使用戶始終能意識到他們正在與人工智慧進行互動。而作為人工智慧系統設計人員和開發團隊,應視為影響數百萬人甚至社會生態的核心角色,應負有義務設計以人為本,並與社會價值觀和道德觀一致的智慧系統。

英國BEIS發布第一代(SMETS1)智慧電表相容性公眾諮詢

  英國商業、能源和產業策略部(Business, Energy and Industrial Strategy, BEIS)於2018年4月17日發布公眾諮詢,議題為「最大化第一代(SMETS1)智慧電表的相容性(interoperability)」,該諮詢將截止於2018年5月24日。   英國對於SMETS1的推廣分為兩階段進行,基礎建設階段始於2011年,主要安裝階段則於2016年11月開始,國家數據及通訊供應商-資料通訊公司(Data Communications Company, DCC)自此階段開始營運,直至2020年智慧電表建置完成。   因現今由各能源供應商使用自身資料及通訊設備裝設第一代智慧型電表,造成消費者無法任意更換能源供應商之情況。對此,英國政府之長期政策目標雖為SMETS1最終可全數透過DCC進行運作,然由於現階段尚未強制能源供應商使用DCC所提供之服務,使用SMETS1的消費者仍無法自由的轉換能源供應商。   本文件提出了兩個方案向公眾諮詢: 要求能源供應商於六個月時限內至DCC註冊其所提供且合於規範的SMETS1,或將SMETS1更換為SMETS2(第二代智慧電表)。而於2020年12月31日前,所有未註冊之SMETS1將強制更換為SMETS2。 若能源供應商已嘗試所有合適的解決方法,仍無法於2019年底前使SMETS1在智慧模式下運作,就必須在2020年6月底前將SMETS1更換為SMETS2。 若供應商係於2019年後才取得SMETS1,於獲得SMETS1之後的六個月內採取所有相關措施後仍無法令SMETS1以智慧模式運作,亦應更換為SMETS2。最終,所有不能運行智慧模式之SMETS1將於2020年12月31日前被完全汰換。   英國政府期透過更完善的政策規劃改善現階段SMETS1透過個別能源供應商之數據及通訊系統運作之情況,以確保SMETS1之智慧模式於消費者更換供應商時能維持正常運作,使消費者可確實獲取改用智慧電表之利益。我國於2015年已開始推動低壓智慧電表建置,英國面臨之問題值得借鏡,政府於推廣低壓智慧電表之同時應注意智慧電表基礎設施之相容性,以增進低壓智慧電表建置效率及降低建置成本。

人權組織向法國最高行政法院提交申訴,要求政府停止使用歧視性演算法

.Pindent{text-indent: 2em;} .Noindent{margin-left: 2em;} .NoPindent{text-indent: 2em; margin-left: 2em;} .No2indent{margin-left: 3em;} .No2Pindent{text-indent: 2em; margin-left: 3em} .No3indent{margin-left: 4em;} .No3Pindent{text-indent: 2em; margin-left: 4em} 國際特赦組織(Amnesty International)與法國數位隱私權倡議團體La Quadrature du Net(LQDN)等組織於2024年10月15日向法國最高行政法院提交申訴,要求停止法國國家家庭津貼基金機構(Caisse nationale des allocations familiales,CNAF)所使用的歧視性風險評分演算法系統。 CNAF自2010年起即慣於使用此系統識別可能進行福利金詐欺的對象,該系統演算法對獲取家庭與住房補助的對象進行0至1之間的風險評分,分數越接近1即越可能被列入清單並受調查,政府當局並宣稱此系統將有助於提升辨識詐欺與錯誤的效率。 LQDN取得該系統的原始碼,並揭露其帶有歧視性質。該等組織說明,CNAF所使用的評分演算法自始即對社會邊緣群體如身心障礙者、單親家長,與低收入、失業、居住於弱勢地區等貧困者表現出懷疑態度,且可能蒐集與系統原先目的不相稱的資訊量,這樣的方向直接違背了人權標準,侵犯平等、非歧視與隱私等權利。 依據歐盟《人工智慧法》(Artificial Intelligence Act,下稱AIA),有兩部分規定: 1. 用於公機關評估自然人是否有資格獲得基本社會福利或服務,以及是否授予、減少、撤銷或收回此類服務的人工智慧系統;以及用於評估自然人信用或建立信用評分的人工智慧系統,應被視為高風險系統。 2. 由公機關或私人對自然人進行社會評分之人工智慧系統可能導致歧視性結果並排除特定群體,從此類人工智慧總結的社會分數可能導致自然人或其群體遭受不當連結或程度不相稱的不利待遇。因此應禁止涉及此類不可接受的評分方式,並可能導致不當結果的人工智慧系統。 然而,AIA並未針對「社會評分系統」明確定義其內涵、組成,因此人權組織同時呼籲,歐盟立法者應針對相關禁令提供具體解釋,惟無論CNAF所使用的系統為何種類型,因其所具有的歧視性,公機關皆應立即停止使用並審視其具有偏見的實務做法。

TOP