Ann Johnson在中風損害了其平衡能力以及呼吸和吞咽能力后,約20年一直無法行走和說話。但在2022年,一個腦植入物終于能讓Johnson聽到了自己的聲音。
一個裝有腦機接口植入物的人體頭骨透明模型。圖片來源:Jean-Christophe Bott/EPA-EFE/Shutterstock
該植入物是過去5年神經技術進入人體試驗階段的例子之一。這類由埃隆·馬斯克創(chuàng)辦的Neuralink等公司開發(fā)的設備,可以改變神經系統(tǒng)的活動以影響言語、觸覺和運動等功能。近日,聯合國教科文組織(UNESCO)在法國巴黎舉行了一場會議,與會代表最終確定了一套管理神經技術的倫理準則。
這些準則側重于保護用戶免受可能侵犯其人權的技術濫用,包括自主權和思想自由。這些包括科學家、倫理學家和法律專家的與會代表們最終確定了9項準則。其中包括建議技術開發(fā)者披露神經信息如何被收集和使用,以及確保產品對人的心理狀態(tài)的長期安全性。
“這份文件闡明了如何保護人權,特別是與神經系統(tǒng)相關的人權?!敝抢サ貋喐绱髮W的神經科學家Pedro Maldonado說,他是起草準則的24位專家之一。這些準則不具有法律約束力,但各國和組織可以用它們來制定政策。今年11月,UNESCO的194個成員國將投票決定是否采納這些準則。
在美國和歐盟等地區(qū),針對植入式腦機設備已有立法。但消費級非醫(yī)療設備,如可穿戴設備,受到的監(jiān)管較少。參與起草準則的美國麻省理工學院的神經技術學家Nataliya Kosmyna表示,這些設備因快速規(guī)?;臐摿Χl(fā)倫理擔憂。
其中一個擔憂是,眼球運動和語調等信息可能被用來推斷神經數據,包括某人的心理狀態(tài)或大腦活動。專家們擔心,當用戶不知情時,例如在睡眠期間,這種活動可能在沒有用戶同意的情況下發(fā)生。
德國慕尼黑工業(yè)大學的倫理學家Marcello Ienca表示,商業(yè)神經設備已經構成了數據和安全風險,特別是對“精神隱私”的風險。“關于大腦和心智的數據應該受到加強保護,以防范心智信息未經授權地泄露?!彼f。
保護精神隱私的一種方式是通過用戶同意。UNESCO建議,這些同意需要是“事先、自由且知情的”,并且應包含隨時退出使用技術的選項。
但未參與會議的美國喬治·華盛頓大學的技術倫理學家Vikram Bhargava認為,知情同意并非萬無一失?!澳切┥窠洈祿粌H提供了關于你的信息,還可能提供關于其他具有相似神經特征的人的信息。”
其他人則不同意這一觀點?!叭藗兯伎挤绞降南嗨菩愿嗯c其居住地、生活方式有關,而不是與大腦運作方式有關?!盡aldonado 說。
盡管如此,“擁有一個各國承諾遵守的全球標準是非常有力的?!泵绹趴舜髮W的法律學者兼?zhèn)惱韺W家Nita Farahany說。
但美國在人工智能等領域出現的監(jiān)管放松態(tài)勢表明,法律工具可能不是解決方案。Farahany 說,相反,各國應鼓勵開發(fā)者設計更多能為用戶提供保護的功能。
本文鏈接:http://jphkf.cn/news-8-5019-0.html腦讀取設備引發(fā)倫理擔憂
聲明:本網頁內容由互聯網博主自發(fā)貢獻,不代表本站觀點,本站不承擔任何法律責任。天上不會到餡餅,請大家謹防詐騙!若有侵權等問題請及時與本網聯系,我們將在第一時間刪除處理。
點擊右上角微信好友
朋友圈
點擊瀏覽器下方“”分享微信好友Safari瀏覽器請點擊“
”按鈕
點擊右上角QQ
點擊瀏覽器下方“”分享QQ好友Safari瀏覽器請點擊“
”按鈕