霍金顿揭示AI潜力与挑战:理解升级带来风险与机遇
知名人工智能学者Geoffrey Hinton近期频繁参与各类访谈,分享他对人工智能(AI)特别是人工智能智能(ASI)的见解,引发广泛关注。Hinton曾强调,尽管大型语言模型(LLMs)在技术层面表现出理解能力,但这并不意味着它们具备与人类相同的理解方式,例如在诗歌和算术方面的表现差异就揭示了这一点。
Hinton在过去的经历中,见证了深度学习的崛起,从早期的研究者转变为AI领域的“教父”。他在谷歌任职期间,目睹AI技术的飞速发展,同时对AI可能带来的潜在风险表达了担忧。Hinton选择退隐,将自己的精力转向AI安全问题的探讨,警示人们注意AI技术的潜在影响。
在最近的Bloomberg Network(BNN)独家采访中,Hinton明确指出,现代的LLMs已不再仅仅是统计模型,它们通过理解上下文来生成预测,这一进步实质上推动了理解能力的提升。他还引用了Scaling Law的概念,认为随着技术不断迭代,AI超越人类智能只是时间问题。
当被问及更智能的技术是否意味着风险时,Hinton指出,历史上有许多聪明的技术在缺乏适当监管时带来问题,暗示AI的潜在危险性。他与Yann LeCun的观点有所不同,LeCun认为AI是安全的,而Hinton则认为AI已具备一定程度的自主性,可能会追求自我保护和控制。
在去年12月的一次访谈中,Hinton甚至表达了一种出乎意料的支持立场,他承认在某种情况下,如果超级智能AI带来了更好的物种,他实际上持支持态度,尽管他倾向于使用更为谨慎的措辞。他认为,人类的优缺点有待评估,未来可能对当前的人文主义观念产生质疑。
这次访谈引发了激烈的讨论,批评者指责Hinton对人类生存和福祉的漠视,认为他的观点过于悲观或虚无。然而,也有人认为他的思考具有前瞻性,认识到人类并非进化的终点,进化会持续,新的智能形态必将出现。Hinton的表态被解读为对进化和未来可能性的一种开放接受,而非单纯的否定或批判。