薛澜对话特伦斯・谢诺夫斯基:AI虽可能替代部分岗位,但也会创造大量新机会

频道:资讯 日期: 浏览:1
薛澜对话特伦斯・谢诺夫斯基:AI虽可能替代部分岗位,但也会创造大量新机会

专题:财经年会2026:预测与战略暨2025全球财富管理论坛

《财经》年会2026:预测与战略暨2025全球财富管理论坛于2025年12月18-20日在北京举行。清华大学苏世民书院院长、人工智能国际治理研究院院长薛澜,与美国四大国家学院院士、神经科学和人工智能领域奠基者特伦斯・谢诺夫斯基教授展开对话。

  谈到当前大语言模型与人类智能的关键区别时特伦斯・谢诺夫斯基表示,智能内涵丰富且维度多元,人类智能、人工智能、军事智能等虽有相似性,但差异巨大。大语言模型在知识储备维度优势显著,但其缺乏人类大脑默认模式网络的持续活动,无法自主规划与记忆。谈及AI是否可能产生自我意识,他表示难以精准预测,但强调意识并非人类独有,黑猩猩等物种虽无复杂语言能力,仍具备一定自我认知,这为AI意识研究提供了参照。

  对于生物科学与人工智能的协同发展,特伦斯・谢诺夫斯基认为这是刚开启的新领域。当前人工智能架构虽更接近人类大脑,但仍基于规则行为模式,而人类通过自然赋予的经验学习能力快速适应世界。两者的深度融合有望实现双向赋能,但目前仍处于起步阶段,距离目标尚有较大差距。

  在AI技术发展路径上,薛澜将当前人工智能比作“认知蒸汽机”,提出需构建新的数学与理论体系解释其高维发展特性。特伦斯・谢诺夫斯基认同这一观点,指出人类生活在三维空间,而语言模型的神经元数量与突触强度对应高维参数,数学家已着手探索相关理论,未来有望形成类似热力学的完善体系。

  针对AI风险与监管这一核心议题,双方展开深入探讨。特伦斯・谢诺夫斯基强调,任何技术都需平衡风险与收益,汽车、医药等领域的发展均证明了这一点。人工智能当前存在的偏见、幻觉等问题本质上是技术问题,可通过持续优化解决。他认为,最理想的监管模式是行业自我监管,若企业未能有效把控风险,政府介入需谨慎,避免因不了解技术细节而阻碍创新。

  对于“红线监管”与国际协同治理,特伦斯・谢诺夫斯基表示,划定AI发展红线具有可行性,但需明确边界所在,可借鉴上世纪60年代生物学家限制生物技术风险的经验,通过透明化实验报告辅助红线划定。针对薛澜提出的建立国际联合实验室的设想,他表示高度认同,认为关键在于推动研究人员与政策制定者共同制定监管原则,可考虑在第三方国家设立相关机构,规避国际竞争带来的阻碍。

  谈及AI失控这一极端风险,特伦斯・谢诺夫斯基认为,此类担忧虽有一定合理性,但具体发生时间难以预测,部分可能属于过度焦虑。他强调,需关注超级预测者的判断,同时通过各国合作建立风险预警机制,避免重蹈核能领域可能引发的全球性灾难覆辙。

  针对人工智能对就业的影响,尤其是对年轻人的冲击,特伦斯・谢诺夫斯基给出积极回应。他表示,AI虽可能替代部分岗位,但也会创造大量新机会,如数据科学领域近年来需求激增,加州圣地亚哥分校数据科学研究院五年内已招聘50名新教职。他建议年轻人应扎实完成本科或硕士学位,主动学习AI相关技能,利用技术提升工作效率,而非受周期波动影响。

  对于人文社科领域从业者的转型问题,他分享了美国一名英语文学专业学生成为AI命题工程师的案例,说明语言才华等人文素养与AI技术的契合点。他透露,全球AI初创企业已超10万家,为不同背景人才提供了广阔舞台,人文社科从业者可凭借独特视角在AI伦理、内容创作等领域找到自身价值。

  对话最后,双方探讨了AI的未来发展方向。特伦斯・谢诺夫斯基表示,当前AI虽取得显著进步,但仍有巨大优化空间。未来十年,AI将借鉴人脑组织方式,在特殊目的处理、散热技术等方面实现突破,逐步提升效率。他认为,AI与神经科学的深度融合有望让机器像人脑一样理解事物,甚至产生直觉与创意,而人类对自身意识的神经科学基础研究也可能取得新进展。

  薛澜在总结中指出,人工智能治理需面对科学家、企业、国家多重主体的复杂博弈,借鉴生命科学领域的阿西洛马原则虽有挑战,但国际协同仍是关键。未来需通过多元治理机制平衡创新与安全,同时帮助不同群体适应技术变革,充分释放AI的积极价值。

  新浪声明:所有会议实录均为现场速记整理,未经演讲者审阅,新浪网登载此文出于传递更多信息之目的,并不意味着赞同其观点或证实其描述。