导读 2023年10月10日,根据英国媒体《金融时报》报道谷歌DeepMind、OpenAI、Anthropic等AI领域知名的企业现在正在联合制定一套人工智能模型能够
2023年10月10日,根据英国媒体《金融时报》报道谷歌DeepMind、OpenAI、Anthropic等AI领域知名的企业现在正在联合制定一套人工智能模型能够遵守的价值观和原则,防止人工智能大模型出现滥用的行为。
随着Openai的等多家公司开始将人工智能技术商业化以后,人工智能领域的研究人员认为为了防止这些人工智能系统生成有害内容或者错误的信息,必须要采取相关的应对方案,建议所有的人工智能科技公司,必须要制定有关于人工智能的限制规定。在制作人工智能大模型的同时,让人工智能首先要学习价值观和原则,在没有人类干预和管制的情况下,依旧能够管控自身。
英国《金融时报》报道表示,让人工智能应用程序拥有尊重,宽容的性质已经成为了生成式人工智能发展的方向。不过哪怕制定人工智能的宪法,依旧无法完全保证人工智能不会出现被滥用的情况。因为在人工智能的研发方面,往往会携带着人工智能工程师和计算机科学家的主观意见,所以很难也为人工智能的限制进行有效的评估。
在各大科技公司争先争夺人工智能技术商业化的同时,人工智能研究人员认为实现人工智能系统的安全防护措施,完全没有跟上人工智能发展的速度。在一般情况下各大科技公司主要以人类反馈的强化学习方法来处理人工智能所生成的问题。能够将人类反馈的强化学习方法,应用科技公司会雇用大量的承包商来审核人工智能模型的回复结果,对于回复结果进行分类,在积攒的足够的评分以后。人工智能模型就会逐渐开始了解好坏之分,并且在之后回复的过程中,就会自动过滤掉一些比较差的信息。