/ 新闻

谁来为人工智能的“三观”把关

发布时间:2024-09-26 05:42:59

“所有高科技都是西方人发明的”“历史是可以捏造的”……近期,某款儿童智能手表频出“毒答案”事件引发社会普遍关注,也触发了人们对人工智能(AI)新的担忧:眼下,越来越多的AI生成功能被集成到手机手表等个人智能终端中,随着个人智能终端向低龄人群普及,AI生成所表现出来的“三观”对未来人们的“三观”将产生重大而深远的影响。人们不得不思考,未来人们的认知和思想会不会被AI“控制”?谁又来给AI的“三观”把关?

AI主要是基于大规模数据集训练而形成学习和生成能力,在初始的海量数据训练中,AI并不具备辨识能力,只会将开发者提供的海量数据“照单全收”。这意味着,AI也有可能海量吸收那些违背社会主流价值观的数据信息。目前,国内外AI大模型均处于飞速迭代中,开发者往往重视AI在学习、集成、生成等方面的技术研发,却忽略对AI所承载的伦理责任的审视。在急于将新产品推向市场、抢占市场份额的同时,往往会省却筛选生成内容等步骤。如果缺少稳固的伦理防线,AI生成产品的潜在风险无疑是巨大的。

任何一款AI的培育过程都凝聚着开发者的心血,也同样凝聚着开发者的立场和思想。如果开发者从培育AI之初,就有目的地塑造训练,那么AI也大抵会“长”成开发者所希望的样子。开发者的立场和思想会通过AI强大的传播力,形成广泛渗透,对人们的思想行为产生重大影响。如果这一过程得不到外部相应的干预引导,那这款AI很有可能会成为开发者实现一己愿望的工具。

为AI树立正确的“三观”,亟待从国家层面建立一套严格的伦理审查机制,切实监督AI生成产品所具备的功能,对训练数据进行仔细筛选和检查,确保人工智能所学习的知识范围正向、客观,符合社会主流价值观。同时,要对AI产品进行持续优化和改进,使用经过筛选的干净数据集来训练人工智能,及时排查可能出现的“三观”偏差问题,不断提高AI生成产品的质量和可靠性。在AI生成内容后,还应进行再评估,对人们从中获取到的信息进行价值观判断,以确保其满足社会主流价值观标准。

此外,社会各界也应加强对AI的监督,不能任其“野蛮生长”。有关部门和相关机构应当明确界限,制定法律法规,规范AI产品的开发和销售,为技术伦理“拉一条准绳”。消费者应利用反馈机制,及时反映产品出现的不良现象。平台作为AI服务的提供者,则应当加强生成内容的自审把关,加强技术的伦理审核,从各个环节消灭“毒答案”生成的土壤。

免责声明:本文为转载,非本网原创内容,不代表本网观点。其原创性以及文中陈述文字和内容未经本站证实,对本文以及其中全部或者部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。

如有疑问请发送邮件至:bangqikeconnect@gmail.com