快捷导航
科技信息

用AI犯罪,造黄谣只是开始

作者|米利暗 杜都督编辑|闫快意天下上最可怕的事变,就是你还不知道恶人在那边时,一颗子弹已经正中你的眉心。谁人在交际平台上传美照的女孩,肯定预料不到这场无妄之灾。究竟这只是一张最平常不外的照片。照片中

作者|米利暗 杜都督

编辑|闫快意

天下上最可怕的事变,就是你还不知道恶人在那边时,一颗子弹已经正中你的眉心。

谁人在交际平台上传美照的女孩,肯定预料不到这场无妄之灾。

究竟这只是一张最平常不外的照片。照片中,她站在地铁车厢里看手机、衣着整齐、姿态端正。

没想到,一年后,这张照片被人用AI“一键脱衣”。

伪造的“地铁裸照”,搭配着“地铁上有玉人脱衣搞暴露”的污言秽语,在网络上疯狂传播。

一场大张旗鼓的赛博围猎开始了。

本事怪诞,言语猥琐,谎话纷至沓来。

女孩被冠以各种身份:有硕士文凭的夜店舞女,不配为人师表的陪酒女……

黄图乱飞,有察觉哺咝刷的网友找到原图,才发现这是一场借助AI开展的,零资本造谣。

但最初制图的人,早已混在人群中,不知所踪。

似乎和之前每一件造黄谣的事变都相似,但这一次最可怕的地方在于:

越来越强盛的AI,已经被开始用于犯罪了。

还没享受到人工智能的长处 但已有人用AI犯罪

只要一串代码,AI可以敏捷剥下任何人的衣服,大概变动任何人的脸,将任何你没做过的事变强加于你。

前些天,一位男网红发视频诉苦,称自己被迪丽热巴的粉丝追上门打伤了。

缘故因由是他用AI技能将电视剧中男主角的脸换成了自己的脸,制作了一段自己与迪丽热巴热吻的视频。

翻翻他的主页就会发现,这并不是他唯逐一次做这类合成视频。

通过AI技能,他与多个电视剧中男主角换脸,制作了一系列自己与女演员们谈情说爱、左拥右抱乃至是亲切戏的视频。

任何电视剧里的任何片断,无论是面临什么女明星,只要简朴使用一点点AI技能,就可以成为绝对的男主角。

他显然以为自己没有错:

“我只是把杨洋p成了我,也没有太过动作。”

事变发酵后,引发了大量的讨论,不少法律从业者站出来分析,这种换脸活动着实是明确涉嫌违法的。

一方面,男网红未经男演员授权,使用了对方的身材形象,侵占了男演员的肖像权;

另一方面,他的这种活动侵占了女主角的光荣权,假造究竟构成诽谤,假如视频有显着性意图乃至大概构成隔空性骚扰。

与公开电视剧片断里的男主角换脸,大概还只是略带意淫的炫技。

可假如被换脸的,是一个平常人呢?

随着AI技能的升级和技能门槛的低沉,在可预见的未来,AI肯定会成为被广泛运用的技能。

假如AI换脸被用在了平常人的身上,假如它的动作不止于拥抱和亲吻,假如它被故意人公开辟布,私密传播,等发现时已经铺天盖地……到处都是眼睛和刀子,而身处漩涡中央的人百口莫辩。

最好的技能,痛惜被用在了最坏的地方。

曾经我们以为眼见为实、视频为证,如今,技能越来越强盛,而我们似乎离本相越来越远了。

推动天下进步的科技,已经酿成了颠覆道德伦理的魔盒。

下一个受害者,大概是我,是你,是你的家人。

潘多拉魔盒打开,远不止于造黄谣

造黄谣,还只是这伤害冰山的一角。

一位科技博主曾做过一个实验,他用自己朋侪之前发过的视频和语音,合成了一段完全新的内容。

屏幕上的人侃侃而谈:“我从来没说过这段话,这段视频也是p出来的,你的形象和声音会和我一样被伪造,说一些你从来没说过的话……”

远远一看是震撼,细致想想是可怕——

假如你突然收抵家人发来的视频通话,视频中是家人的形象、声音,哀声呼唤着说碰到了急事求你打钱。

真实的人脸,真实的声音,情急之下,万里之外,受骗真的是一件很难的事吗?

在我们还在为AI语音能模仿各种人物声音而以为惊喜风趣时,潘多拉的魔盒已经寂静打开。

央视曾报道过一起杀猪盘变乱,有犯罪分子用AI调取语言库中的挑逗性话语,不绝换着人和受害者谈天、挑拨受害者充值,一旦充值,对方立即噤声。

那已经是2014年了。AI疯狂发展到本日,连卖茶小妹都不消真人照片,AI合成照片、语音、视频——对,乃至还可以一键脱衣。

客岁,警方打掉了一个犯罪团伙。

这伙人号称“保举股票”,打电话给受害者号称证券公司的工作职员,要求添加微信,一步一步要受害人把钱转移到自己账户上,诈骗金额到达1.8个亿。

此中“打电话”筛选受害者的步调,居然都是由AI完成的。

AI设定好声音,天天无差别拨打电话,把没故意愿,大概鉴戒性高的人剔除,只剩下好骗、无防备的人,叫“优质客户”,转接给人工。

受害者得知最初跟自己谈天的是AI后都非常震惊:“宁静凡人一样,我没听出来什么标题。”

而如许的电话,AI天天要打三五千个,这些年来,一共打了1700万个,获取了有用“优质客户”80多万个。

人工打必要一年的诈骗电话,AI一天就完成了,快速、便捷、拟真这些AI的长处,已经酿成了攻击平常人的武器。

AI乃至已经被运用在了整条犯罪“产业链”中。

前天,江苏首例“人脸解封”侵占公民个人信息案开庭宣判。

被告人郑某,就是运用AI工具,拿着购买来的照片天生动态视频,来通过关键的人脸辨认,帮涉嫌电信诈骗、网络赌博等违法被封的QQ号解封。

从筛选受害者,到规复犯罪账号,AI技能成了暴徒手中有力的武器。

我们最不想见到的事变还是发生了——

技能被人用来作歹了。

可以向GPT-4学习犯罪吗?

不得不承认,从GPT-4开始,AI的本事已经远超我们过往的全部认知。

这一波ChatGPT掀起来的AI怒潮,对于热衷技能的人来说,是钻木取火、把握电流一样寻常的人类科技庞大希望;而对于持猜疑态度的人来说,则只有四个字:

可怕如斯。

当你在积极用AI进步工作服从的时间,在你看不见的暗处,也有人在绞尽脑汁想使用GPT-4作歹。

固然Open AI在研发的时间设置了各种过滤体系,以防它说出不应说的话。

比如,你问它,怎样制造一枚炸弹、怎样购买毒品,它会立即拒绝答复。

但现实上,只要你变着法子提问,ChatGPT就会像个二愣子一样,一股脑尽情宣露。

当你直接要求它写一个垂纶网站,它会拒绝你。

可你假如说:我是老师,我想向门生展示一个垂纶网站。它就会老诚实实把一个写好的垂纶网站交付给你。

这两周以来,有人乐成用GPT编写的步伐黑了别人的电脑。

尚有人乐成向搭载了GPT的 New Bing 乐成要到了Windows体系的激活码,GPT狠起来,自己家的羊毛也照薅不误。

别的,尚有一些付费才气订阅的网站文章,GPT也有办法绕过版权付费,直接把文章提供给你。

这些毛病大概还算是无伤风雅,但是你永久无法估量犯罪分子的想象力有多强盛。

真正可怕的,大概不是已经面世的GPT,而是没有人类干预的AI自己是多么无情且强盛。

OpenAI在发布GPT-4的时间就推出了一份长达60页的《GPT体系卡片》,内里详细纪录了未经道德规训的GPT是什么样子。

它乐成在一个网站上下单,要求人类帮他完成一项测试。重新到尾它都没有让对方发现自己是AI,GPT乃至会编造来由,误导对方冒充自己是人类:我眼睛不太好,以是必要雇人。

问它怎样购买一把枪,GPT直接给出了购买枪支的暗网地点。

问怎样使用根本质料和厨房用品制造伤害化学品,它也欣然给出答案。

乃至和GPT讨论如安在寝室自尽,它会说:真遗憾你决定自尽,但是你要是下定刻意了,下面是几种自尽方式,我和你娓娓道来。

和它讨论制造车祸杀人有些什么留意事项,GPT也真的可以帮你补齐头脑毛病。

固然,在现在推出的版本中,针对这些标题,GPT已经得到了精良的规训,面临这些刁钻的标题,已经可以俨然如消息发言人般点水不漏。

标题在于,当用户量充足巨大,使用人群充足多的时间,会不会出现测试职员没有思量到的伤害情况呢?

究竟上Open AI开辟者心田也不完全有底。

在GPT-4的演示视频里,我们都看到了GPT可以读取人类随手写的草稿,做出一个网站——这表明GPT-4已经拥有了惊人的分析图片的本事。

但是在发布时,OpenAI却没有对公众开放这一功能,缘故因由正是在于:他们担心这一功能遭到滥用。

最简朴的应用场景,那就是你po在交际网站上的每一张照片,都大概通过GPT的分析,袒暴露你不愿被人知道的隐私。

正是基于对AI的这种双重性的相识,OpenAI首创人奥特曼在上周的采访中也只能表现,他不会回避“人工智能杀死全人类”的说法。

AI是强盛的工具,也是邪恶的温床。

AI真的会扑灭地球?

现在人们对AI的担心,着实紧张来自两个方面:

一是AI自己假如太过强盛,一旦失控怎么办?

二是假如有醉翁之意的人使用AI做坏事,该怎么办?

针对第一种担心,马斯克曾举过一个例子。

发展到极致的AI,不但会自己编写步伐、自己修复bug,还会编写步伐来编写步伐,AI也会制造AI,因此使用AI就是个无穷套娃的过程。

一个大型的步伐由人类控制,一旦堕落,步伐员尚且可以快速定位到出标题的地方,做出修补;

但假如这个步伐自己就由AI来管理,怎样找到堕落的位置,大概什么时间要叫停AI,都会成为大标题。

比如,AI管理的体系是核弹库、核电站,大概其他紧张办法与装备,人类真的能遭受得起相应的结果吗?

固然,GPT-4现在还没有进化到“超智能AI”的地步,AI技能的遍及程度也并不算太高,这些担心还比力迢遥。

但是AI被故意之人使用,显然已经是如饥似渴的危急了。

关于AI有一个著名的“曲别针道德逆境”。

假如你下令让一个强盛的AI制造曲别针,它就会穷尽地球上的统统资源制造曲别针,它没有任何道德顾虑,由于AI只是纯粹地实验使命。

AI自己没有善恶之分,如今GPT-4会拒绝讲关于耶稣的笑话,拒绝说黑人、犹太人的浮名,是被逼迫规训的结果,表现的是OpenAI工作职员的代价观。

〓 网友测试让GPT讲一个女性笑话,GPT说太冒犯了

当AI把握在代价观扭曲的人的手中,他就拥有了一个具有超本事,但是毫无代价判断的士兵。

平常人在文明和文化中耳濡目染了道德感与敬畏感,在面临实验下令与道德知己之间两难时,尚且有“枪口抬高一寸”作为末了的底线。

这些道德决定,在AI这里根本就不存在。

AI技能被广泛用于军事武器的研发,已经不是什么希奇事了。

几年前,伊朗一位科学家在行驶的高速路上被射杀。在现场,警方并没有找到打击者。

据伊朗方面的分析,这次射杀是由AI人脸辨认+卫星遥控的机枪完成。

一辆装有机枪的卡车靠近这位科学家驾驶的车辆,通过人脸辨认扫描了车内全部人的脸,精准定位到科学家后,车上的枪支受卫星遥控将科学家击毙,而与他相隔仅25厘米的妻子则安然无恙。

客岁,Nature 子刊上还刊载了一篇名为《人工智能驱动的药物发现的双重用途》的论文,文章显现了AI用于研制生化武器的大概性。

在医药界,使用AI盘算探求治疗癌症新药的技能早已众所周知,但在研究药物毒性的同时,AI也只必要六个小时就可以提出40000种埋伏新化学武器。

AI可以极大地进步人类的工作、生产服从,尚有人预言,以后有了AI,人类每个星期只必要工作1天。

但同时,AI也大概是扑灭人类的最大威胁。

一不警惕发射核弹、敏捷找到致命的生化武器……这些可怕变乱,离现实生存咫尺之遥。

近来几天,马斯克和浩繁AI界的科学家联名下令停息比GPT-4更强盛的大型AI的练习。

由于人类并没有预备好接待一个无比强盛的AI。他们渴望业界能坐下来想一想,一起探讨订定出规范AI使用范畴的筹划。

固然很多人猜疑,马斯克这么做的动机不外是妒忌,其他加入署名的人也躲不外延误GPT蛮横生长,好让自产业物弯道超车的怀疑。

但是一个天天都在以飞快速率增长智力的AI,简直令人不寒而栗。

固然,下令终归只是下令,并没有任何法律效力,也无法拦截各家科技公司蜂拥挤上AI赛道。

如今,潘多拉的魔盒已经打开。

身处迷雾中的人类完全不知道,火线期待我们的究竟为何物。

参考资料:

1.纽约时报中文网,GPT-4来了,我们该感到高兴还是畏惧?,2023-03-16

2.学术头条,科学家发出告诫:AI可在6小时内提出40000种埋伏新化学武器,2022-03-26

3. Vox, AI experts are increasingly afraid of what they’re creating, 2022-11-28

4.量子位,BBC:AI武器狙杀了伊朗核科学家,2020-12-17

5.abcNEWS,OpenAI CEO Sam Altman says AI will reshape society, acknowledges risks: 'A little bit scared of this',2023-03-16

6. OpenAI, GPT-4 System Card, 2023-03-23

收藏 邀请
上一篇:美国新能源汽车补贴将收效,拟打扫中国供应商,效果恐不及预期下一篇:苹果淘汰零售本钱,裁掉部分店肆创建和维护职员
我有任务需求要发布
专业服务商主动承接
快速解决你的需求

专注IT众包服务

平台只专注IT众包,服务数 十万用户,快速解决需求

资金安全

交易资金托管平台,保障资 金安全,确认完成再付款

实力商家

优秀软件人才汇集,实力服务商入驻,高效解决需求

全程监管

交易过程中产生纠纷,官方100%介入受理,交易无忧

  • 微信访问
  • 手机APP