ChatGPT传播政治经济学的思考

摘要:近几年人工智能进入到类人的交互时代,生成式的对话模型已经接近了与人类的交流水平,人工智能与人类的互补发展是科技进步的必然。ChatGPT作为目前AI中最为先进的技术,给新闻传播业带来了新的技术革命。传播政治经济学作为批判学派的重要分支,致力于探究传播与权力的相互建构,注重揭示文化现象背后的经济结构、政治诉求、技术形塑和文化考量。因此本文拟从传播政治经济学批判角度出发,界定“ChatGPT”的本质和表征,深入分析其流行的驱动因素,阐明“ChatGPT”的正面价值和负面效应,并提出引导和规范的中国化路径,以期树立正确的价值观念,重塑健康的网络传播实践,助推网络文化的创造性繁荣。

关键词:ChatGPT;传播政治经济学;解构批判

ChatGPT作为一个强大的AI语言模型,正在彻底改变我们在日常生活中获取信息的模式,以及与人工智能互动和沟通的方式。它所生成的类似人类语言文本的能力可以协助完成包括语言处理在内等更为广泛的任务,因此也正在成为众多使用者的智能化工具。国内外关于“ChatGPT”热潮的兴起隐含着政治经济考量和社会心理基础,这种现象的出现与流行,同时受到政治、经济、文化和技术等多角度因素的驱动,极具探讨意义。

 1 知微见著:ChatGPT的现状与特征
  1.1 ChatGPT的发展现状

ChatGPT是由总部位于旧金山的Open人工智能开发的一个人工智能聊天机器人程序,于2022年11月30日公开测试。它的名字由两部分组成:Chat为“聊天”、GPT为英文“Generative Pre-trained Transformer”的首个字母缩写,意即“生成式预训练转换器”。顾名思义,ChatGPT是一款自动聊天机器人预制程序,不仅能理解人类输入的文字,还可以按照输入的指令,以文字的方式输出答案和反馈,从而实现借助自然语言的多轮次的人机对话,自动生成更准确的回复,并根据客户的输入,自动提供智能推荐,还可提供相关信息,以期帮助用户解决问题。

目前ChatGPT技术在教育领域被广泛关注,并有望成为主流和主导的学习方式,其对学习、教学乃至教育的影响可谓重大而深远。不仅如此,ChatGPT掀起了一场人工智能竞赛,谷歌紧随其后发布了自己的Bard,百度声称类似ChatGPT的产品正在内测,预计将很快正式对外发布。

  1.2 ChatGPT的内涵特征

1.2.1 内容上的强创造性

ChatGPT可以做到在同一个模型里面,用开放的方式写代码、注释代码,也可以在多轮对话的交互过程中制作表格,让它去修改和完善表格,甚至还可以描绘一些有常识的问答,使用者会发现它也能够去处理一些非常有争议的话题。比如说,情侣问伴侣“她和你妈妈同时掉进水里先救谁”这类问题,还可以不停地加一些约束条件,比方说妈妈会游泳该怎么办?如果你自己不会游泳该怎么回答等等,C h atGP T的回答是令人惊叹的。究其原因是它的智能化水平非常之高,这也是ChatGP T能够快速出圈非常重要的一个原因。

1.2.2 极其理性的回答机器

当使用者将ChatGPT定位在机器属性上时,会发现它反而不具备类人的特点,具体说来就是没有人设、没有共情能力、没有同理心。因此它能够去构建一类有用可信并且是安全的这个系统,这一特征体现在安全性非常高,能够拒绝回答一些敏感的问题。同时也在有挑战性的开发任务上表现超出人类的能力,比如高超的理解和推理能力,能够完成较多的创造性的工作。

1.2.3 颇具颠覆性的传播变革

如果我们不把ChatGPT简单理解为“信息金字塔”上的从数据到信息、从信息到知识、从知识到智慧的程序,那么其背后就充满着权力的运作与社会的建构过程。小到个人微观角度会影响决策,宏观角度会影响社会公共知识的运行,这是一个信息流通转变为公共信息去传播的过程。我们需要警惕的是这一现象是否会在传播学界引起“技术决定论”新一轮的争辩。

 2 多重建构:ChatGPT的传播政治经济学形成动因
  2.1 政治博弈:边界争夺与阶层流动

政治安全是指一个国家的主权、领土、政权和政治制度以及意识形态不受别国干涉和破坏,社会政治稳定,政权巩固,拥有自主性和独立性。风险社会理论认为,现代社会是一个高度现代化和高度风险化的社会,人类不合理的实践活动和发展方式等人为因素诱发了现代社会风险,并导致整个世界逐渐演变成了一个风险社会。人工智能可以隐秘地影响他国民众心理,微妙地改变其对事物的普遍看法,进而颠覆“有图有真相”的传统认知,动摇政治信任基础,侵蚀政治制度安全基石。

人工智能可以凭借社交机器人的应用,通过对相关用户数据资源进行深度加工,更为隐秘地改变用户群体的政治认知,解构其政治价值偏好、政治认同倾向,进而直接或间接地参与到公共政策制定、执行等国家政治制度建设的进程中。从国家科技创新实力的角度去看ChatGPT的“玩家”最主要的两大参与者就是中国和美国,对于国家主权的侵蚀,实际上就是在互联网领域实现了一种潜移默化的意识渗透。因为它的内容是结合了人的思维训练模式、文本语言训练等等。因此中国对于这类产品的开发也是势在必得,至少不能让他国的偏见去占领互联网这一领域。在自由匿名的互联网,“ChatGPT”的内容生产和传播也依然要受政治边界的约束,其内容和表现形式都不能触碰政治的底线。

  2.2 经济转向:制度监管的缺位

随着ChatGPT的热度不断攀升,新闻业的结构性变革也随之而来。各个地方融媒体中心的App是否冗杂?是否需要这么多的机构来提供愈加同质化的内容?究竟谁可以给我们提供确定性的内容?目前来看,AI在企业创新和管理中的未来发展趋势是非常明朗的。随着技术的进步和数据的增长,AI将在越来越多的企业中发挥作用。AI技术可以在帮助企业更好地预测市场需求、提高生产效率、优化供应链等方面发挥作用,有望对企业创新和管理带来重大的推动。那么ChatGPT在翻译时是否会导致研究成果的泄露?期间的监管和规制如何保障是否值得信任?目前来看国外是不允许使用ChaGPT来完成作业以及一些比较具有保密性、创造性的工作。

  2.3 文化解构:身份认同与文化偏移

ChatGPT的广泛使用,受到影响最大的是搜索引擎类的公司,当单一的只能用户自助搜索内容的方式被转变为“有问有答”的方式后,更多的人会对这一互动式、生成式的内容产生依赖。那么对于文本的内容我们该如何去理解就值得去思考。在现实的使用中,人可以跟人聊天,人也可以和人工智能聊天。更重要的是,人工智能之间也可以相互聊天。那么在人工智能与人类的继续聊天中,信息分发的逻辑就已经被改变了。当人类都愿意跟人工智能聊天的时候,会出现人工智能觉得人太无趣了,转而人工智能自己去和“同类”聊天了。那么,人与人、人与人工智能、人工智能之间的文化生产逻辑也值得学界关注。

  2.4 技术型塑:内容的生产与分发

ChatGPT带来了两方面在技术应用层面上的挑战。一方面体现在信息分发上。作为一个问答系统,它能把信息进行融合,极其快的速度传达给用户。另一方面,体现在信息生产上。ChatGPT能够作为创作的工具,在信息分发上可以类比推荐算法的模式。推荐算法经历了很长的发展,并且已经在产业界获得了比较成熟的应用。然而ChatGPT还没有真正的介入到人们的生活和工作当中,目前有些过于主观上的把它认定为一个可以颠覆生活的技术。事实上ChatGPT提供的还是一个Q&A模式的信息分发,它目前只能做到“有问有答”,然而却不能对使用者的内心或者是想法和动机进行猜测。也就是说使用者没有很强的目的性去使用它的时候,它的技术革新性并没有得到很大的体现。

 3 纠偏观念:对Chat GPT的边界审视
  3.1 能力边界:有限的创造性

对于ChatGPT的使用还是基于提问这一行为上,创造性是体现在回答的内容中。然而提问这一行为本身就是一个自律的活动,而且这一活动还具有一定的门槛要求。某种程度上一部分人甚至都不能很好的提出一个在研究领域或者科学领域的有价值意义的问题,搜索到相关资料都是比较有难度的。未来,ChatGPT可以努力在提问方式上越来越简单,给予的回答内容越来越优质。人工智能程序能够更加自主的推荐使用者需要什么东西,而不是靠被动去提问。

  3.2 道德边界:内容的原创性

ChatGPT的文本创作能力让它在各种专业考试中都能够达到不错的分数,因此可能被运用在一些需要展现自身能力的考试中,引发了一些负面的情况出现,有言论说这是一个大型的“抄袭系统”,因为ChatGPT赖以生存的基础就是大量的文本数据输入,然后进行学习。例如在2015年的时候,MIT的三位学生在两个星期中创造一个课程项目,运用“论文生成器”的人工智能程序创作了一篇SCI文章投到计算机学的一个会议,而且成果被接收了。然而这只是通过把无数篇论文汇集后进行文本学习,再让他产生一篇新的论文。这件事说明了如果想要通过人工智能程序欺骗是很容易的,尤其是当这一程序有大量的知识数据储存时,或者是被用来生成假消息、假新闻的话,可能会看上去更像真实发生的新闻,这一问题已经引起了新闻传播界的重点关注。

 4 拨开迷雾:ChatGPT的本地化思考
  4.1 内容的空间泛滥性

ChatGPT对于内容生产后在媒体空间上的泛滥,是一个必然的趋势。智能生产的内容越来越多,必然会压缩人类本身的自然表达。那么问题就是我们如何把机器生产内容和原本的专业生产内容、草根生产内容区分开呢?从ChatGPT的本质上来说,机器生产内容依然不能定义为人的生产内容,人类“喂”给它的文本数据决定了它产出什么样的内容,因此,如果输入的数据存在语义的偏颇,在这一空间泛滥的内容也会间接的对社会产生非常不利的影响。

  4.2 人际关系的破坏性

在ChatGPT构建的人际交流过程当中,我们看不到聊天者面部表情、看不到对方的肢体语言、感受不到对方的体温和气息,然而这些都是在人和人之间交往中非常重要的基本要素。不知道有多少人注意到,在第一次使用它的时候会有一个提示,提示我们在使用的过程当中不要涉及到个人隐私,因为你所输入的这些个人隐私都会被他作为数据,在其算法迭代过程当中会不断得到应用与强化。更重要的是,人和人之间交往忠诚的问题,尤其是我们涉及到情感陪伴的时候,忠诚是非常重要的。人和媒介之间交往的时候,当我们比较依赖从媒介当中获取到情感支持的时候,可能会导致群体性的孤独。那么在机械思维越先接触情感计算基础的突破时,机器产生自主思维会不会类似于人类的情感也值得探讨。一方面,人工智能自主思维这一模式还需要一段时间的发展,目前的机器思维或策略都是人用数据“喂”给它的。另一方面,涉及到情感部分,最重要的就是对于一个人工智能程序它需要有一个类似人工情感和人工心理的模型,之后再去建模这个情感的变化以及迁移。

  4.3 人的不可替代性

虽然ChatGPT目前能够应用在很多领域的回答上,但是对于一些需要实用性的问题,它的回答还是不完美的。比如说让它写一个网站的爬虫代码,确实可以写出来,但这个代码是没有办法应用到实际生活中运用的,因为问答网站规则已经修正了。换句话说,那个代码直接拿来用是有问题的,或者说它大规模使用是有问题的。你也可以继续去问,说出现在出现了什么问题,要怎么解决?在经过不停的多轮对话后也许可以写的更完善。但这就需要提问的人知道整个任务的所有流程,需要真人不停的与ChatGPT不停的交互,而且这一交互行为还要是极具专业性的交流。因此发现,这个交互最重要的知识来源实际上是来自于真人“会提问”的能力。

美国杂志《商业内幕》(Business Insider)通过访谈专家,得出了最可能被生成式AI替代的十个职业,包括:技术人员、媒体工作者、法律行业工作者等。值得注意的是,除了客服等少数几个职业外,被列出的其他职业通常都要求较高的技能和教育水平,并且薪资水平也很高。在Frey和Osborne的预测中,这些都属于被替代概率很低的职业。

 5 结束语

ChatGPT目前还是在成长过程中,宏观上属于机器传播的大概念,因此人工智能技术我们还需要从技术逻辑来理解,对于ChatGPT的判断不必建立在类似于好莱坞大片式的幻想之上,避免造成无意义的恐慌。随着国内对于其研究的深入,我们会逐渐对其了解与适应,从而真正地辅助人们日常的工作与生活。

本文来自投稿,不代表小蚂蚁立场,如若转载,请注明出处:http://www.xiaomayi.cc/925.html