圖為在上交會上,公眾體驗以腦機接口技術為核心的腦控代步車。
3月下旬,馬斯克創立的腦機接口公司“神經連接”展示了腦機接口植入患者用意念下棋、玩游戲的影像。此前不久,清華大學洪波團隊與首都醫科大學宣武醫院、北京天壇醫院合作,通過半侵入式腦機接口,分別幫助高位截癱患者實現了自主腦控喝水以及用腦電活動控制電腦光標移動……
腦機接口技術似乎正為我們勾畫著更加美好的未來。
伴隨著技術突飛猛進,倫理的“韁繩”無疑也要拉緊。2月,國家科技倫理委員會人工智能倫理分委員會研究編制了《腦機接口研究倫理指引》(以下簡稱《倫理指引》)。中國社會科學院科技哲學研究室主任段偉文說:“《倫理指引》為推動腦機接口技術健康有序發展指明了方向。”
我國腦機接口研究整體可控
腦機接口技術頻頻取得突破,其可能帶來的倫理風險同樣引人關注。早在2022年,馬斯克的“神經連接”公司還在用動物做實驗時,就曾因涉嫌違反《動物福利法》遭到美國有關部門的調查。而當實驗對象從動物轉向人類,人們對倫理問題的討論也愈發熱烈。
“在這種情況下,制定《倫理指引》非常有必要。”段偉文說,“我們既要看到商業化開發對于腦機接口創新潛力的催化作用,也要防止一些問題與爭議因此被掩蓋。”
他舉例說,技術路線風險、技術使用邊界、責任認定問題,都是在推進技術發展的同時要探索和解決的。“哪些疾病可以用腦機接口解決?研究的透明性、可解釋性如何保證?這些都是亟須厘清的問題。”段偉文說。
實際上,我國在腦機接口研究方面已經取得了諸多進展。去年,南開大學段峰團隊牽頭的全球首例非人靈長類動物介入式腦機接口實驗獲得成功,在猴腦內實現了腦控機械臂。“研究的核心在于兼顧安全性和識別穩定性。”在進行實驗前,段峰團隊對于接入大腦獲取信號的方式進行了充分的調研,牽頭研發了無需開顱手術即可采集到顱內腦電信號的介入式腦機接口。在動物實驗過程中,團隊嚴格遵循《實驗動物管理條例》《關于善待實驗動物的指導性意見》等相關管理規定,謹慎開展研究。
“要將腦機接口技術應用于臨床患者,必須經過非常嚴格的倫理審查。我們認為這是必要的,一切科學研究的目的都應該是更好地服務于人。”段峰說。
對于可能存在的風險,我國《倫理指引》也做出了詳細的規范。《倫理指引》指出,腦機接口研究應適度且無傷害,研究的根本目的是輔助、增強、修復人體的感覺—運動功能或提升人機交互能力,提升人類健康和增進福祉。對于嚴重危及生命且尚無其他有效治療手段的罕見病,《倫理指引》鼓勵進行創新研究,并嚴格規范。
由于腦機接口研究涉及腦機接口產品服務提供者、研究人員與被試,《倫理指引》明確責任認定,確保技術設計、研發、使用、部署等階段可追責。
作為一線科研工作者,段峰認為,在相關倫理規范的指引下,目前我國腦機接口研究整體安全可控。
自律他律相結合
腦機接口可能帶來的隱私數據保護問題也備受關注。人們擔憂,為了巨額利潤,可能有商業機構用腦機接口識別消費者的偏好習慣,甚至可能在未來直接為消費者的大腦植入新的偏好習慣。
“目前腦機接口更多地用于幫助殘疾人制造更聰明的假肢,而非服務于普通消費者。”浙江強腦科技有限公司合伙人兼高級副總裁何熙昱錦介紹,在數據保護方面,企業在獲得用戶知情同意的前提下獲取數據,目前所有數據都經過脫敏處理,只用來建模以滿足用戶需求,不作任何其他用途,這是行業和企業的自律。而在他律方面也期待法律法規更加完善,明確準繩,幫助整個行業規范、健康地發展。
《倫理指引》為腦機接口研究數據的收集、使用劃定了邊界:腦機接口研究過程中收集的數據范圍及可查閱人員的權限應由倫理委員會審批通過,應建立妥善處置和管理方案,按照信息安全管理相關法律法規和技術標準要求,對數據或樣本的收集、存儲、使用、加工、傳輸、發布等進行全流程系統性的保障;應嚴格遵守《中華人民共和國個人信息保護法》《中華人民共和國數據安全法》等相關法律法規和標準規范,加強風險監測,防止神經數據或實驗樣本泄露,保障數據安全和被試的隱私和個人信息。
增強型腦機接口是否會侵犯正常秩序?這是人們普遍存在的另一重擔憂。增強型腦機接口的適用對象是身體機能正常者,用以增強其感知、認知和運動能力。在段偉文看來,對于能力正常者的改善性認知增強應審慎進行。“腦機接口技術在改善認知能力障礙方面大有可為,提升技術可及性,滿足更多失能者的需求才是發展方向。”《倫理指引》也指出,在尚未妥善處理各種風險的情況下,不應貿然開展相關技術應用,最小化對人類造成的負面影響。
此外,《倫理指引》還規范了針對大腦仍在發育的未成年人的腦機接口研究:要充分認識到腦機接口研究對兒童與青少年的神經發育過程的影響,對相關研究可能導致的身心傷害與權利侵犯采取嚴格的倫理評估和防范措施。
引導技術向好向善
腦機接口能夠直接與大腦互動,是有望深度實現人機融合的未來產業。同時我們需要注意到,大腦是身體中最能代表“靈魂”的器官,與大腦互動可能觸及自我、思想、意志和隱私等。
由于大腦機制非常復雜,目前人類遠遠沒能掌握大腦的所有秘密。因此,腦機接口技術還不能做到“讀心”,只能簡單識別特定指令。但當腦機接口技術發展到可以“讀心”的一天,我們又該如何對其進行規范?
“如果有一天,腦機接口發展到與大腦深度互動的程度,那么我們必須要界定哪些事情可以做、哪些事情不能做。”段偉文說,“因此,對腦機接口倫理的廣泛討論是非常必要的。要在技術被大量開發和普遍應用之前,促使利益相關群體對腦機接口可能涉及的神經數據和精神隱私等問題展開廣泛討論,制定相應的技術標準、法律規范和倫理原則,建立專門的監管、合規和倫理審查機制。”
對此,國際上亦不乏討論。聯合國教科文組織國際生物倫理委員會提出,將“神經權利”作為一項基本人權,主張將自由意志和精神隱私納入人權保護范圍;智利等國家正在嘗試立法保護精神隱私、自由意志和公民不受歧視地獲得神經技術。
《倫理指引》也指出,將隨著腦機接口技術的發展定期評估,適時修訂指引。
“面對腦機接口、人工智能等驅動的深度科技化的未來,我們每個人都需要更加認真地審視科技的現實利弊和深遠影響,成為善于駕馭科技與倫理雙螺旋的‘科技智人’。”段偉文呼吁。(實習記者 蔣 捷)