人工智能考研(人工智能考研考哪些科目)




人工智能考研,人工智能考研考哪些科目

陈全真 南京大学法学院博士研究生

一、问题的提出:生成式人工智能如何影响平台权力?

然而,以ChatGPT为代表的生成式人工智能的问世,预示着用户享有数据主权的美好理想将化为泡影。美国人工智能研究机构OpenAI将ChatGPT定义为人工智能技术驱动的自然语言处理工具。它解决了这样一个核心问题,即如何让人工智能模型的产出和人类的常识、认知、需求、价值观保持一致。与从大量数据中寻找隐藏模式并形成预测的分析式人工智能不同,生成式人工智能最显著的技术优势在于它可以基于人类反馈的强化学习寻找完成人类指令的最优解,拥有对自然语言的理解、解释和生成内容等方面的能力,甚至在人类知识贮存与计算机超级算力的加持下,其能力可以远远超过人类。作为一种基石性的大型语言模型,生成式人工智能可以被应用到搜索引擎、内容平台、应用软件等一系列下游场景中,可以作为数字技术市场的“看门人”,与下游应用场景的结合将会带来巨大的市场支配力量。这是否意味着,在嵌入生成式人工智能后,Web3.0时代的互联网平台将迎来重新赋能的机会,进而产生一种更为中心化的平台权力?倘若如此,此种平台权力的生成、作用方式以及对用户权利的影响将是我们不得不思考的问题。未来如何通过技术、法律或政策的指引,既不遏制人工智能技术的创新和产业化应用,又能实现“平台+生成式人工智能”的规范化运行,引导其向有利于人类福祉的方向发展,将成为一项重要议题。

二、Web3.0时代平台权力的流散

就本质而言,平台权力是一种社会权力形式,或者说平台权力是社会权力的Web2.0形态。在前互联网时期,传统社会权力至少在社会团体内部是一种中心化的权力,但又不可避免受到国家权力的侵扰甚至解构,时刻面临去中心化的威胁。Web2.0时期,互联网技术迎来大规模的商业化应用,互联网寡头借助原始资本和技术先占优势,重新改造权力的发生机制和作用于人的方式,使得传统社会权力进化为平台权力。平台借助技术架构控制信息生产、筛选和分发机制,制造平台与用户之间的信息不对称,从而过度参与社会公共管理,引发社会公众质疑,国家开始加强对平台经济的规制。从国家互联网治理实践来看,平台所能掌控的公共空间正在缩小,所能参与社会公共管理的深度正在下降,平台权力正在发生流散。

(一)从竞价排名的法律定性看平台权力流散

从根本上而言,社会公众的注意力并非仅仅停留在竞价排名的定性上,而是开始担忧平台设置的技术壁垒和信息不对称导致的公众知情权和选择权受限。在价值认同层面,部分平台的技术架构受到公众道德质疑,公众信任度降低。在规则治理层面,面对舆论质疑,国家机关开始否定部分平台对竞价排名的自我定性,试图收回散落在平台中的治理权力。《互联网广告管理暂行办法》和电子商务法均将竞价排名定性为商业广告。这将产生如下两种法律效果:其一,搜索引擎服务商成为广告发布主体,对广告主的资质以及广告内容具有较高的审查义务,这也说明国家法律开始介入,尤其对于那些影响公众判断和选择的行为机制,平台的自我定性权力受到否定,主体责任却在加强。其二,竞价排名被认定为商业广告,意味着广告发布主体即平台公司将不再受到民法典“避风港规则”的庇护,而是要纳入刚性更强的广告法加以严苛的公法规制。这都在一定程度上表明,国家权力开始注意到平台权力的过度中心化现象,开始在规则层面确立对平台经济的规制权。

(二)从信息监控的法律边界看平台权力流散

曾经有直播平台实时直播通过智能摄像机拍摄的公共场所影像,引发网民围观和评论,这被部分公众认为是侵犯个人隐私而遭到声讨。从该事件来看,摄像头原本只具有监控功能,用于公共领域的安全防范,本应是公众喜闻乐见的,而在摄像头上加上直播功能,却引起部分公众的反感。这实际上反映了互联网时代人们对于全场景监控的担忧。平台通过与具有监控功能的摄像头相连接,具有了直播功能,这实际上是模糊了私人领域和公共领域的边界。一般意义上的“公共领域”是指可以随意进出的公共场所,但公共场所并非全无隐私之地,公共场所还包含那些“掩面而过不为人知”的私人领域。平台公司通过技术的滥用达成权力的扩张,将“公共场所”中具有私人性质的空间不断暴露在社会公众面前,导致“公共场所”这一概念的范围不断扩大,极大地压缩了私人空间的范围。而与此相对的是,社会公众的隐私保护诉求在提升,法律在回应公众诉求时,会尝试扩大隐私保护范围,并时刻注意划清私人空间和公共空间的界限,统筹兼顾公共领域安全防范与个人隐私、个人信息权益保护。

在平台权力扩张所导致的私人领域被侵犯的问题上,一些学者已经给出初步建议,通过考量互联网隐私侵权行为与损害结果之间的分散化,以及侵权人与被侵权人之间举证能力的悬殊地位,倾向于采用一种实质标准判别隐私利益,在归责原则上采用较为严苛的过错推定原则来重构侵权规则,以增加被侵权人胜诉的可能性。在当前的司法实践中,“侵犯公民个人信息罪”的认定,也已开始从狭隘的“隐私权保护模式”转向更为宽泛的“公民个人信息”概念进行解释,这实际上对平台隐私合规提出了较高要求,对平台权力的蔓延作出了较大限制。这些对策,有的已经被国家立法机关所采纳,有的被司法机关在审判实践中予以倾斜解释,这些应对方法都遵循一个基本思路,即力图划清私人领域与公共领域的界限,扩大私人空间的保护范围。

从近年国家互联网立法和司法实践来看,平台权力过度中心化问题已得到足够的重视,并得到一定程度的管控,平台权力扩张引发的信息不对称,以及公共领域与私人领域之间的紧张关系也已得到一定程度的缓解。种种迹象表明,平台权力正在发生流散,面临去中心化。

(一)生成式人工智能的知识生产

生成式人工智能主要依赖于以源源不断的数据输入人机交互接口,辅之以算法技术对大型语言模型的训练,从海量的数据中学习各种知识以输出新内容。从生成式人工智能的发展历程来看,自GPT1.0开始,大型语言模型就被视为通往通用人工智能的必由之路。在美国人工智能研究机构OpenAI看来,未来的通用人工智能应拥有一个能够无差别完成人类任务的超大型语言模型,可以从海量的数据中学习各种知识,通过自动生成新知识解决实际问题。

当然,生成式人工智能创造的知识不一定都是权威的。生成式人工智能通过学习大量数据来生成新的内容,生成的新知识是否权威、有价值,取决于所使用的数据集和算法的质量。如果数据集不足或者不准确,算法也不够优化,生成的知识可能存在偏差或错误。因此,需要谨慎地审视生成式人工智能创造的知识,不应一概地看作是权威的,否则将有可能引起平台权力的异化或腐败。

(三)知识生产者的集权倾向

四、生成式人工智能与平台权力的再中心化

(一)生成式人工智能重新掌握用户数据

(二)生成式人工智能对平台权力的重构

因此,生成式人工智能的兴起很可能会强化互联网寡头在市场上的垄断。当互联网平台嵌入生成式人工智能,生成式人工智能需要海量的数据来训练模型,如果一个互联网平台掌握了大量生成式人工智能所需的数据,并且能够有效地进行分析和应用,那么它就将成为市场的主导者,其他竞争者将很难进入。从这个层面而言,生成式人工智能其实是传统力量的延伸,是互联网中心化垄断模式的又一次强化,所有与生成式人工智能相关的产业,其背后都站着互联网技术寡头。因此,当互联网平台嵌入生成式人工智能,两者的结合也意味着平台权力再次走向中心化成为可能。

传统社会权力的生长多依赖于市场,以市场资源的占有和累加达成权力聚集的目的。但当平台嵌入生成式人工智能,数据和算法成为新的权力要素,平台赋权不再过多地依赖于市场,而是更依靠计算机原理实现代码控制,以及借此对数据和算法进行操控,通过掌握社会基础设施来实现对人的影响和支配,进而对整个社会产生支配力。平台的控制能力是借助技术来实现的。平台的技术控制能力直接体现为平台通过应用场景、嵌入程序和分发结构的设计来控制信息流,并将一系列规则、条款作用于用户主体,保证用户信息在平台技术框架体系内有序流动。这本质上是一种技术性的权力,凭借其在数据资源获取、分析和使用上的技术性优势,对公民、社会组织甚至政府产生决策和行为等方面的控制力或影响力。当用户数据被导入生产、消费环节,平台就会利用算法技术组织框架体系,通过应用场景汇聚数据资源,形成数据关系,促成高效的信息流通,并对用户形成数据监控和追踪。这一过程类似于商业数据监控,但同时具有极高的智能性、隐蔽性和精准性,在用户行为分析、商业情报挖掘以及社会舆情监控等方面均发挥着重要作用。也正是在这一过程中,平台通过算法架构体系吸引和保持用户数量,增强用户黏性,使得用户一直处于平台所设计的应用场景、通信协议以及分发模式所决定的信息流中,用户数据被分解为更细小的微粒。人们在不知不觉中成为平台进行资本积累的“数字劳工”,在无形之中接受平台权力的控制和影响。

五、“平台+生成式人工智能”带来的治理挑战与应对

英国科技哲学家大卫·科林格里奇曾在《技术的社会控制》一书中指出,如果因为担心一项技术产生不良后果而过早实施控制,那么技术很可能就被扼杀在摇篮中而难以惠及民众;相反,如果控制过晚,技术已经内嵌于经济社会结构中,此时再来解决技术引发的社会问题,成本将会变得高昂且为时已晚。这说明,技术的社会控制,关键在于时机的把握。就本质而言,以ChatGPT为代表的生成式人工智能是一种基础性平台,和下游互联网平台结合后,它的影响将是基础性、全局性和社会性的。相关的制度建设与保障,不仅关系到产品管理秩序、精神文化的生产繁荣,也关乎研发者、投资者、制造者、使用者等多元主体的切身利益,政策与制度安排可以说是牵一发而动全身。因此,就“平台+生成式人工智能”的治理而言,首要的问题就是时机的把控。生成式人工智能的作用并不在于作为聊天机器人或者搜索工具,而是未来将会作为一种基础性平台,被陆续整合到下游互联网平台中,呈现出高度的渗透性和延展性,进而支撑起整个科技、社会、文化、商业、经济等不同层面。比如微软不但将ChatGPT嵌入Bing搜索引擎中,还嵌入Office办公软件中。因此,虽然生成式人工智能的出现和应用提升了人工智能技术在互联网及其下游产业中的主导性地位,并且可能会带来一系列的社会治理困境,但当生成式人工智能并未大规模嵌入下游互联网平台时,其对社会治理造成的影响并未完全显现,在具体制度层面进行规制依然为时尚早,可以借鉴域外国家或地区的人工智能治理经验,先从技术控制和宏观政策方面入手,引导“平台+生成式人工智能”实现规范化运行。

(一)技术控制先行

技术问题的治理必须首先立足于有效的技术手段和技术工具之上,倘若一项新兴技术引发的社会问题能够依靠技术手段予以内部优化,那么治理路径应该以技术为先,外部政策与法律控制无需过早介入。生成式人工智能的内容生成机制依托数据库和算法模型两大关键技术。因此,内容生成的基础是数据,对海量数据的分类和管理是实现技术控制效果的重要前提,主要包括对基础数据材料的采集整理、数据的质量检验、数据的标准化、数据的存储和数据的分类管理等环节的把控,以实现数据的安全、高效和可靠的利用。内容生成的关键技术是算法,对于训练模型的训练是实现技术控制效果的关键因素,主要包括对算法程序的选择、评估、优化和可解释性的治理,尽可能排除算法程序的偏见,提高算法的安全性和可靠性。

具体而言,互联网平台应建立由相关领域专家参与的生成式人工智能的训练机制,开发可信赖的增强学习算法,人工智能从业者需要对生成式人工智能的工具能力和可靠性进行持续跟踪和反馈,预防将偏见注入训练模型。比如,在训练阶段,人工智能工程师需要采取理性中立和客观真实的立场提供人类反馈,这样在强化学习阶段就不会产生不必要的偏见。OpenAI也承认在对ChatGPT的训练中,“投喂”的训练数据存在某些类型的偏见,比如工程师更喜欢更全面、更长的答案。此外,人工智能工程师需要设计方案来评估生成式人工智能生成新知识的偏见程度,以及时矫正偏见。若用户恶意误导,某些恶意言论可能会通过大型语言模型自动生成误导性或虚假内容,从而制造影响力暗中操纵舆论。对此,对于采用生成式人工智能的互联网平台,应当要求用户实名认证,规定用户不能上传虚假信息和发布色情、暴力等不良信息。

(二)包容审慎的政策立场

生成式人工智能刚刚崛起,其在产品形态、社会化应用和产业发展方面的走向都处于初期但快速发展阶段,因而坚持一种包容审慎的政策立场,对于塑造一个良好的智能互联网产业生态至关重要。

作为全球智能互联网制度建设的风向标,欧盟正试图在人工智能全球治理规则的制定上掌握主动权。以往的人工智能监管主要集中于传统的人工智能模型,而非以ChatGPT为代表的生成式人工智能模型。随着ChatGPT的出现,欧盟委员会正尝试增加规制此类生成式人工智能的规则,拟出台全盘的人工智能治理方案。欧盟人工智能法案修正案第4a-4c条规定,可用于任何高风险领域的通用人工智能系统,如就业、医疗、信用评分、行政执法都必须遵守人工智能法对高风险系统规定的全部义务。这一条款一定程度上可视为监管生成式人工智能的核心条款。可见,欧盟制定的人工智能法案对高风险人工智能系统的提供者课以较重的义务。但一些学者提出,此类法规可能会阻碍大型人工智能模型的开发和使用,对人工智能产业的发展带来不利影响,欧盟应将人工智能法案的全盘监管方案转到具体的监管职责和内容治理方面。目前,人工智能法案的修改草案在欧盟议会受阻。

欧盟的人工智能监管态度可为我国相关政策的制定提供一定的经验。就我国而言,必须认识到过去直接针对信息、内容和传播过程的互联网规制模式可能不再那么有效,但在目前生成式人工智能尚未完全落地应用之前,过于超前地规划立法方案和建构规制路径,可能会阻碍人工智能技术的创新,迫切推进基础性人工智能立法并不合时宜,单纯的“围追堵截”模式将处于防不胜防的尴尬境地。为了确保不阻碍人工智能领域的创新,同时保障社会公众免受新技术崛起带来的不利影响,针对生成式人工智能的治理不宜过早地实施法律控制,以免妨碍人工智能的研发和社会化普及,但也不能放任发展,而是需要在其社会化普及之前掌握好主动权,积极酝酿相关政策。在前期政策层面,我国可以秉持“边发展,边治理”的立场,采取一种包容审慎的监管态度。目前,ChatGPT主要用于机器人聊天和搜索引擎整合,主要面向个人消费者,但ChatGPT的横空出世,对于大型互联网公司而言是一个完成颠覆性创新的绝佳机会。因此,当下可以先采取包容审慎的治理态度,在政策层面既要强力支持相关互联网公司,激发其积极参与生成式人工智能产业布局,当技术应用出现负面影响时,又要避免一刀切式的消极治理,坚持问题导向,有针对性地对在社会层面产生严重负面影响的内容进行整治,避免出现简单一刀切的情况。

结语

人工智能考研(人工智能考研考哪些科目)

赞 (0)