一女子在地铁上的照片被AI一键脱衣,造谣图在网络广泛传播引发关注。

在现今AI强大的算法下,时间、地点都对的上的情况下,伪造的谣言对普通人来说简直百口莫辩。

打开网易新闻 查看更多图片

只是正常出行坐次地铁,却被突然丢来污蔑。

而登上热搜的这个标题的逻辑也很奇怪。

#一女子在地铁上的照片被AI一键脱衣#,好像是ai自主产生意识自主去给这个无辜美女脱衣服,再自主传播的一样。

“这标题取的,还以为AI成精了。”加害者被隐藏在标题后面了。

这不叫被ai一键脱衣,这叫某女士照片被下流男的上传AI进行脱衣处理并传播造黄谣。

说到底还是人为的,AI只是个工具。善用工具和滥用工具,造出不一样的结果。

打开网易新闻 查看更多图片

虽然AI一键脱衣相关软件早已被封禁,但网络上并不难找出替代品。

而且不仅仅是造黄谣方面,别的方面也可能AI造假。本来很多网民连低级的Photoshop图片都无法辨认,AI一出来那就更难以分辨了。

还有昨天爆出来的北京语言大学老师偷拍学生上瑜伽课,拍摄多段女生视频,将照片发至有三百多人的群里,配文十分不雅,出言污秽。

怀着恶意之心,要么是为了脑子里肮脏的想法,要么是为挣钱毫无底线。

拿起手机就拍,登上账号就发,让暴露在社会环境下的普通人完全没隐私可言。

上瑜伽课,有人拿着手机拍不雅视频。

外出逛街,被人拿着相机怼脸拍,还告诉你说这是街拍记录,公共场合你怕什么。

游泳冲浪,瑜伽舞蹈,水上乐园,都是重灾区。

偷着拍偷着发,有人现在竟然都不满足于此了,直接利用AI作图,造谣她人。

这种行为要是再不用某种办法制止,以后身边人去上瑜伽,去游泳逛街,被人拍了发到群里,传到了网上,一堆恶心人,说着不堪入目的话,谁能忍得了。

推动世界进步的是科技,颠覆道德伦理的是魔盒,但总有人利用科技做着犯法的事。用好了则省时省劲省力,用坏了则衍生一系列病变。

27日,北京语言大学纪委工作人员称,学校已关注到此事,正在核实处理。“日前,我校教育技术与资源管理中心一职工在社交媒体发布不合适的图片、视频和文字,引发舆论广泛关注。我校高度重视,第一时间启动调查程序,已暂停该职工相关工作。”

而被隐藏在AI之后的那个造谣的人也要被找出来,接受应受的惩罚。

但最重要的是,惩处这些人容易,更要整治这种现象。

莫让这样的人接二连三的发生,莫让只是外出办事游玩的女性或男性永远怀有恐惧的心理。

你怎么看待这件事呢?