当前位置:  > 文章中心 > 资讯中心 > 时事财经

汤景泰:ChatGPT走红,但也带来治理风险

2023-02-14 09:08:34  来源: 汤景泰   作者:汤景泰
点击:    评论: (查看) 字体: / /

  ChatGPT是人工智能发展史上又一款现象级产品。此前,人工智能领域曾多次出现过类似情况。例如,1997年,IBM开发的深蓝计算机在国际象棋的世纪大战中打败了当时的世界冠军卡斯帕罗夫;2016年,谷歌开发的AlphaGo在与世界顶尖棋手李世石的五番对决中,以4:1的成绩获胜。

  但此次推出的ChatGPT不同点在于,它超越了单一的游戏领域,让各行各业的普罗大众直接领教了一番人工智能的魅力攻势。特别是ChatGPT不仅上知天文、下知地理,而且在文本生产、数据分析、代码编写、图像生成等多模态话语领域均体现出让人惊艳的可靠性、高效性与逻辑性,它以生产力工具的面貌突然出现在大众面前,也因此产生远超以往的社会震动。已有经验表明,人总是容易高估一年内的短期变化,却容易低估十年内的长期变化。虽然ChatGPT发展为成熟的应用进入普通生活场景,仍需一定时日,但基于长期眼光来看,ChatGPT所带来的风险并不会仅局限在个体层面,从社会纬度来看,这类人工智能产品或将给网络社会治理带来前所未有的挑战。

  从内容质量来看,“幻觉” (Hallucination)对真实性的污染使得未来的虚假信息治理面临更严峻挑战。所谓“幻觉”,指的是自然语言处理模型生成自然流畅,语法正确,但实际上毫无意义,或包含虚假信息的内容,就像人产生幻觉一样。作为人工智能领域最先进的产品之一,ChatGPT在底层数据与核心技术方面均为世界领先,特别是其核心的人工智能语言大模型在参数规模上已经达到千亿级别,这使其具备优秀的意图识别与语言理解能力。但是因为数据质量与技术的限制,它也难以避免幻觉现象。

  幻觉问题导致一些网民在试用时发现,ChatGPT在交互中会生成不少事实性错误,有时对一些简单问题也会一本正经地胡说八道。Meta公司推出的大型语言模型Galactica主打科学研究领域的内容生成服务,上线后也被发现部分生成内容失实,三天后就遭下线。因此,纽约大学教授盖瑞·马库斯认为,尽管ChatGPT能够生成合乎语言逻辑的内容,但这些内容本身并不一定真实。在隔行如隔山的今天,这种似是而非的内容对非专业用户具有极大的迷惑性。再加上随着现代科学的蓬勃发展,科学技术的先进性与权威性已经深度捆绑,并植入到了大众的脑海之中。ChatGPT也可以利用这种认知惯性,裹挟着科学之威,在潜移默化中影响对特定问题的社会认知。

  从信息生产与传播角度来看,ChatGPT还实现了传播模式的升级。就互联网的内容生产模式而言,无论是最初的PGC(专家生产内容),还是后来大行其道的UGC(用户生产内容),内容生产的主体都是人,但以ChatGPT等为代表的应用却带来新的AIGC时代(AI生产内容)。与此前的模式相比,AIGC实现了传播主体、内容与媒介的深度一体化,标志着基于互联网的深度媒介化进入到一个新阶段。媒介化是一个宏观层面上的概念,是对媒介效果的宏观社会效应的一种延展,其根本点在于以此概念来理解媒介所带来的复杂社会后果。已有研究表明,媒介化是“所有社会进程中的一个独特维度”,媒介化学派代表性人物弗里德里希·克罗茨甚至将媒介化视为可以塑造交往形态和历史进程的“元进程”。从这个角度来看,ChatGPT就不只是作为一种中立性和工具性的中介存在于治理体系之中,而是会成为不同利益、立场的群体进行互动的平台和交往场域,并以其内在的技术逻辑改造传统的权力运行逻辑,改变已有的权力结构,对现实社会中的利益博弈施加内在影响,从而产生广泛且深刻的影响。

  例如,虽然ChatGPT仍在试用阶段,但众多社会从业者体验之后都感到可能被替代的担忧。关键是ChatGPT还处于持续更新的状态中,可以想见,那些担忧并非杞人忧天,《人类简史》的作者赫拉利所预言的大规模“无用阶层”的出现也并非危言耸听。虽然技术的每一次更新都会创造新的劳动就业机会,但落到个体的角度,却存在各种可能的结果。由技术发展带来的系统性、结构性失业问题,对任何国家而言,都是不得不防的社会风险。

  这还仅仅是ChatGPT对劳资关系可能造成的影响。从技术发展的逻辑来看,赋能会导向赋权,ChatGPT延伸了个体的信息生产与传播能力,也会因此激发社会行动者达权通变的意愿,利用相关技术与工具拓展各类权力诉求,这又可能带来权力格局的深度调整。特别是在国际纬度,以ChatGPT为代表的人工智能与国家的信息安全、经济发展、社会稳定等问题息息相关,未来很可能成为大国竞争的战略工具。届时,个别国家以其技术优势获得更大的霸权优势,将成为全球网络治理中的新难题。

  在现代社会,各类新技术一度被视为“解蔽世界的力量”而被寄予厚望,但历史却多次展现了事与愿违的结果。面对以ChatGPT为代表的人工智能技术可能带来的治理风险,我们当然不能以“用勺子挖运河”的思维一禁了之,也没必要恐慌焦虑,但是应树立完善的技术发展与应用观念,警惕激进主义倾向,审慎对待技术的采用和相应产业的政策制定,防止技术在利益的裹挟下无序应用。(作者是复旦大学新闻学院教授)

「 支持红色网站!」

红歌会网 SZHGH.COM

感谢您的支持与鼓励!
您的打赏将用于红歌会网日常运行与维护。
帮助我们办好网站,宣传红色文化。
传播正能量,促进公平正义!

相关文章