在人工智能天生的文本中,我们大概可以找到一些潜伏在字里行间的蛛丝马迹。如果有方法可以辨认出来这些陈迹,就能帮我们判断这些笔墨是否是人工智能写的。 光凭人类的力气很难辨认这些“水印”,但我们可以“用邪术打败邪术”,让盘算机资助我们检测这些文本是否来自人工智能体系。如果把恰当的方法嵌入到大型语言模子中,它们就可以资助克制这些模子已经引起的一些题目。 自从 OpenAI 在 2022 年 11 月推出谈天呆板人 ChatGPT 以来,门生们已经开始用它作弊,包罗写论文和替考。消息网站 CNET 开始用 ChatGPT 写文章,却不得不因抄袭控告而更正部门内容。如果有一套“水印”检测体系,那么笔墨内容在发布之前就可以举行二次审校,从而办理这些题目。 在最新研究中,“水印”已经被用来辨认人工智能天生的文本,正确率很不错。比方,美国马里兰大学的研究职员利用他们构建的一种水印(检测)算法,可以辨认出由 Meta 的开源语言模子 OPT-6.7B 创建的文本。这项工作发表于预印本上,尚未颠末偕行评审,相干代码将在 2 月 15 日左右免费开放。 人工智能语言模子的工作原理是每次猜测和天生一个单词。在每个单词之后,“水印”算法将语言模子的单词随机分别到“绿表”和“红表”上,然后提示模子选择绿表上的单词。 文章中绿色的词越多,文本越有大概是由呆板天生的。人类写出来的文本通常包罗更随机的单词组合。比方,对于单词“漂亮的(beautiful)”,水印算法会将单词“花(flower)”分类为绿色,将“兰花(orchid)”分类为赤色。 加入这项研究的助理教授、马里兰大学的汤姆·戈尔茨坦(Tom Goldstein)表明说,利用了水印算法的人工智能模子更有大概利用“花”这个词,而不是“兰花”。 ChatGPT 是一种新型大型语言模子,它天生的文本流通到极有大概被误以为是人类写出来的。与它雷同的很多人工智能模子,会自负地吐出看似可信的内容,但却常常包罗错误和私见。对于未经训练的用户来说,险些不大概区分一段笔墨是人工智能模子写的,照旧人类写的。 人工智能技能以惊人的速率发展,新的、更强盛的模子会灵敏使我们现有的合成文本检测工具黯然失色。因此,人工智能开发者之间会不绝竞争,当新的、性能更好的模子问世后,很多人就会去积极开发新的安全工具。 “如今,我们看到的场景好像神仙打斗,”马里兰大学的研究员约翰·基尔琴鲍尔(John Kirchenbauer)说,他加入了水印研究的工作。 他渴望水印工具能为人工智能检测工作带来上风。他说本身团队开发的工具只必要一些调解,就能应对任何一种以猜测下一个单词为工作原理的人工智能语言模子。 人工智能初创公司 Hugging Face 的政策总监艾琳·索莱曼(Irene Solaiman)说,这些发现很有远景也很实时。她曾在 OpenAI 继续人工智能研究员,负责研究人工智能输出检测,但她没有加入这项研究。 索莱曼说:“随着这些模子的大规模摆设,更多的人工智能社区之外的人必要依赖好的检测方法,由于他们大概没有颠末盘算机科学培训。” 然而,这种新方法也有其范围性。水印只有从一开始就被创建者嵌入到大型语言模子中才华有用。据传 OpenAI 正在致力于探求检测人工智能天生的文本的方法包罗利用水印,但他们这项研究仍然高度保密。 该公司不方便向外界提供太多关于 ChatGPT 怎样工作或训练的信息,更不消说应对它了。OpenAI 也没有立即复兴我们的置评哀求。 索莱曼说,如今还不清晰这项新工作将怎样实用于除 Meta 之外的公司开发的模子,比如 ChatGPT。研究中用来测试水印算法的人工智能模子,也比 ChatGPT 等主流模子要小。 因此必要举行更多的测试,来探索人们应对水印的差别方式,但研究职员表现攻击者的选择有限。戈尔茨坦说:“在去除水印之前,你必须改变一段笔墨中约莫一半的单词。” “低估高中生(的探索精力)是很伤害的,以是我不会那样做,”索莱曼说,“但一样平常来说,平常人大概无法窜改这种水印。” 支持:Ren |

专注IT众包服务
平台只专注IT众包,服务数 十万用户,快速解决需求

资金安全
交易资金托管平台,保障资 金安全,确认完成再付款

实力商家
优秀软件人才汇集,实力服务商入驻,高效解决需求

全程监管
交易过程中产生纠纷,官方100%介入受理,交易无忧

微信访问
手机APP
关于我们|广告合作|联系我们|隐私条款|免责声明| 时代威客网
( 闽ICP备20007337号 ) |网站地图
Copyright 2019-2024 www.eravik.com 版权所有 All rights reserved.


