【资料图】
就在近日的《自然·神经科学》上,来自得克萨斯大学的科学家们发表了一篇论文,文中提到他们在大型语言模型的助力下,开发出了一种现代“读心机”,虽然它不能让你直接“说真话”,但是可以将你的大脑活动转换成清晰的图像或语言直接表述出来。(8月28日《北京青年报》转载)
所谓“读心”,就是即使你默不作声,AI也能掌握你的所知所想。换言之,读心就是“思维解码”,是指利用AI技术从大脑中提取和解析思维的过程。从近年媒体报道的情况看,有的研究人员开发出一种语义解码器,通过分析人的功能磁共振成像数据,把大脑所想的故事甚至图像翻译成文本流。有的研究人员则通过捕捉面部神经肌肉的信号,把这类信号转换为相应的字词,以达到“读心”的目的。然而,无论各种研究如何演进,人们面对未来的多种可能性,总是会担心一个问题:AI技术究竟能不能向善、不作恶?会读心的AI会不会从人的助手蜕变为人的控制者,甚至成为罪恶的帮凶?
众所周知,价值的源头是需求。在科技创新活动中,人们总是基于新的需求,去追求和创造新的价值,又总是不断地从需求出发,再认识和再评价科技的价值。当AI“读心”展现出诱人的前景时,我们有必要反复地追问,开发AI“读心术”的初衷是什么?简而言之,就是促进人机协同发展,使AI更好地帮助人。比如,帮助聋哑人、中风患者实现无障碍交流;使教练机器人掌握运动员的心理状态,有效提升运动员的竞技水平;使机器人能够带着“感情”去和人打交道,让人在使用它时更亲切、更高效,等等。而无论AI“读心”满足何种场景下的特定需求,总有一种需求是始终存在的,那就是有关安全的需求。也就是说,要为“读心”的AI植入安全基因,使之可用、可靠、可知和可控。唯有如此,方能不断校准技术发展的航向,使之朝着向善的方向发展。
一方面,用技术进步破解安全风险问题。事实上,AI的应用既是安全防御的重点,也是安全保障的手段。用好AI技术,意味着强化安全风险感知、做好监测预警和高效开展追踪溯源。另一方面,用法治手段筑牢全社会的共同责任。具体来说,就是使各方共同参与进来,多措并举提升数字安全治理水平;把伦理道德融入AI技术发展的全生命周期,避免滋生歧视、偏见以及隐私泄露问题。(杨博)
关键词: