會上,張鈸院士以《語言大模型(ChatGPT)的本質(zhì)》為題,對聊天(對話)機器人的發(fā)展歷史進行回顧,對語言大模型究竟要解決什么問題進行了探討。張院士通過實例系統(tǒng)介紹了以微軟小冰、IBM沃森等為代表的第一、二代聊天機器人的能力,以及以ChatGPT為代表的最新一代語言模型的語言生成能力,分析了人工智能實現(xiàn)對話或聊天的原理和本質(zhì),闡釋了ChatGPT的性能、原理和局限性。
“ChatGPT語言跟人類自然語言生成原理最本質(zhì)的區(qū)別是,ChatGPT生成的語言是外部算法驅(qū)動的,而人類的語言是由自身主觀意圖驅(qū)動的。GPT是將人類投喂的數(shù)據(jù)作為其接收的‘知識’來處理的,受制于程式算法的GPT,在處理這些外來‘知識’時,實際是不具備反思能力的。”談及以ChatGPT為代表的AI大模型局限性,張鈸表示,機器的“神經(jīng)學(xué)習(xí)”并無相應(yīng)的人類的心理過程,而只是機械的文字和數(shù)字符號的計算。
報告中他也補充稱,隨著數(shù)據(jù)、算法等核心要素的不斷升級迭代,生成式大模型未來可能會突破人為限制,提升到自主創(chuàng)作層次,從理論上實現(xiàn)高質(zhì)量內(nèi)容生態(tài)的無限供給。但當(dāng)前重要的是,需要對ChatGPT語言進行深入的研究和理解,而不是一味追求機器算法語言與人類自然語言的“對齊”。在張鈸看來,某種程度上,生成式大模型正是機器認(rèn)知智能發(fā)展到當(dāng)下階段的典型代表,這類智能和人類智能各有優(yōu)劣,而在做大量“對齊”的治理后,大模型智能所生成的文本多維度和豐富性反而會下降,并不利于機器“智能涌現(xiàn)”的創(chuàng)新。他相信,只有人機認(rèn)知協(xié)作才有可能應(yīng)對未來社會或?qū)淼乃懔驼J(rèn)知挑戰(zhàn)。
他同時還強調(diào)了對語言大模型實施必要的道德倫理監(jiān)管及治理的重要性。