AI内容泛滥:当互联网沦为巨型垃圾场

AI内容泛滥,娱乐视频博眼球,学术论文掺水,互联网正沦为巨型垃圾场。我们需要警惕AI带来的信息污染。

原文标题:从诡异视频到假论文,AI正把互联网变成巨型「垃圾场」

原文作者:机器之心

冷月清谈:

AI技术的快速发展带来了内容创作的便捷,但也引发了网络信息污染的问题。一方面,社交媒体上充斥着大量由AI生成的猎奇、惊悚视频,这些视频通过夸张的情节和视觉冲击来吸引眼球,背后隐藏着平台对流量的追逐和创作者对短期效益的迎合。另一方面,AI甚至渗透到学术领域,出现了大量由AI炮制的低质量论文,这些论文不仅侵蚀了学术平台的公信力,也损害了科研的公正性。文章呼吁在拥抱AI技术的同时,警惕其可能带来的负面影响,避免互联网沦为信息垃圾场。

怜星夜思:

1、AI生成的这些“垃圾”内容,真的是AI的错吗?还是另有原因?
2、面对这些AI“垃圾”,作为普通用户,我们能做些什么?
3、你觉得未来AI内容会朝着什么方向发展?我们又该如何应对?

原文内容

机器之心报道

编辑:杨文

不要让AI成为「垃圾制造机」。


谁能想到,一个 AI 生成的视频竟然在 ins 上拿下 2.52 亿次浏览量,仅点赞就达到 325.7 万次。



视频中,一个身穿比基尼的胖女人笨拙地踩上船边栏杆,猛地朝海里一跃,瞬间溅起巨大的水花,同时船身也因为她的重量和动作失去了平衡,一整个栽进了海里。



眼尖的朋友也发现了不少 AI 作怪的端倪,比如船边看热闹的男人可以像猫头鹰一样 360 度转脑袋,以及不合常理的船身倾斜等。


该视频通过夸张的情节触动观众的笑点,但也有着身材歧视的嫌疑。由于赚取了巨大流量,该博主又制作不少类似的视频。



如果再往下扒拉扒拉该博主的其他作品,大部分人都会产生一种强烈的、浑身起鸡皮疙瘩的不适感,人身猪面的跳水者、丧尸形象的受访者,以及奇形怪状的不明生物…… 一个比一个瘆人。(AI 惊悚含量太高,避免引起不适就不放视频了😂)


现在,打开每个社交媒体平台几乎都能蹦出几个诡异邪门的 AI 视频,最近比较火的就是 AI 生成的「同类相食」视频。



里面各种食物不仅长出了人脸,还自相残「食」,柠檬、橙子、小笼包、西兰花、蓝莓松饼等等都闭着眼微笑地等着被勺子投喂。


来自 ins 博主 reallyweirdai


制作流程过于简单,只需一句提示词,Veo3 就能生成:


A surreal orange with a human-like face rests on a sunlit kitchen counter, its textured skin iluminated by warm morning light; a spooncarrying a juicy orange wedge slowly approaches its closed mouth, and as it nears, the orange's lips animate and gently part to accept theslice. chewing with an oddly natural motion before returning to stilnes. the background remains softly blurred. drawing focus to the bizarreand whimsical act;the camera is static in a tight close-up shot with shaow depth of field,capturing fine textures and subtle movements;ighting is natural and directional, casting soft highlights and shadows across the scene, creating an uncanny yet playful atmosphere withdreamlike surrealism.



如果你觉得这类视频看上去还有点可爱,那下面这种绝对是让人恶心的程度。



这段名为「You Are What You Eat」的视频曾在 Reddit 上疯传,展示了由食物组成的人正吃着这些食物,比如一个寿司人正在狼吞虎咽地吃寿司,或者一个酸奶人端着草莓酸奶杯猛吞…… 要是再配上音,令人毛骨悚然。




以上视频出自博主 Bennett Waisbren 之手,他的灵感来源是吃播视频,以暗黑风格凸显了现代人对暴食的渴望。虽然想表达的内涵很深刻,但视觉上给人强烈的不适。


网友对这类视频的评价也两极分化,有人认为「有创意」、「几乎不费吹灰之力就能赚到巨额广告费」,有人则觉得「太恶心」、「简直是噩梦」。


这种恶心的感觉其实是因为它触及到了「恐怖谷效应」,即一个物体看起来几乎像人类但又不完全像时,就会引起人们的厌恶、恐惧。


视频中的食物被赋予了非常逼真的人脸表情,包括闭眼微笑、咀嚼等,当它们表现出人类特有的行为时,会让人产生一种不适感。


这些邪门奇怪的 AI 视频在社交平台上大行其道,背后藏着赤裸裸的流量逻辑。


平台的算法推崇能够快速吸引眼球和引发互动的内容,怪异、夸张的视频自然能够触动观众的好奇心,引发更多的点击、评论和分享。这种追求流量和短期效益的趋势促使创作者不断迎合观众的猎奇心理,制作更加极端和非传统的视频。


再加上 AI 工具的快速发展和低成本创作,让创作者只需简短的指令就能生成高度逼真的视频,创作过程变得更加轻松和高效,在一定程度上更加剧了这一现象。


更严重的是,AI 生成的「垃圾」不只体现在娱乐视频上,甚至一度渗透到了学术领域。


瑞典布罗斯大学学院研究人员曾在一项研究中表示,在谷歌学术平台这一文献索引数据库中,他们发现了上百篇疑似由 AI「炮制」的文章。借助 AI 的低成本「作弊」手段,轻而易举地制造并散播虚假科学信息,这不仅侵蚀学术平台的公信力,也让科学的真正价值被这些低质量的伪科学所消耗。


还有一项研究调查了科学家的同行评审。在其中一个会议上,同行评审中使用「meticulous」(一丝不苟)一词的频率是去年的 34 倍,「commendable」(值得赞扬)的使用频率大约是去年的 10 倍,而「intricate」(错综复杂)的使用频率是去年的 11 倍,而这类措辞是 ChatGPT 等大模型最爱的流行词之一。


换句话说,AI 领域的研究人员越来越多地依赖 AI 工具来协助、甚至代劳撰写同行评审,特别是当截止日期临近时,AI 的使用频率更高。


有些 AI 生成的内容一眼假,比如去年那篇曾让科学家们震惊的医学期刊论文,文章作者使用 Midjourney 生成了一张卡通老鼠长着生殖器的图片,不仅解剖图完全错误,里面还包含了大量乱写的文字,错误如此明显的论文能够通过同行评审并堂而皇之地刊登在学术期刊上,背后问题的严重性不言而喻。


科学家的声誉在很大程度上是依靠他们的发表记录,比如发表的论文数量、频率,以及是否能出现在顶级期刊中,但这一机制也给一些人可乘之机,他们借助 AI 生成低质量的文章,严重危害了知识的纯粹性和科研的公正性。


无论是网络上的 AI 惊悚视频,还是学术上的 AI 低质量论文,它们所造成的伤害和影响,远远超出了创作本身。


如今 AI 发展潮流浩浩汤汤,我们在拥抱 AI 技术的同时,请不要把互联网变成巨大的信息垃圾场。


参考链接:

https://x.com/venturetwins/status/1939535063882027032

https://x.com/techhalla/status/1938905997038227921

https://x.com/venturetwins/status/1939889476467400986

https://www.nytimes.com/2024/03/29/opinion/ai-internet-x-youtube.html


© THE END 

转载请联系本公众号获得授权

投稿或寻求报道:[email protected]

我觉得更深层次的是要提升自身素质。多学习、多思考,培养独立思考能力,提高对信息的批判性思维。只有这样,才能不被各种“信息垃圾”所迷惑,成为一个有判断力、有责任感的网络公民。

从长远来看,我们需要重新思考人与AI的关系。AI应该成为人类的助手,而不是替代品。我们要培养自身的创造力、批判性思维和情感表达能力,让自己在与AI的竞争中保持优势。只有这样,才能在未来的AI时代立于不败之地。

未来AI内容的发展方向取决于我们如何引导它。如果继续放任自流,那么“垃圾”内容只会越来越多。我们需要加强对AI技术的监管,建立完善的伦理规范,鼓励AI应用于更有价值的领域,比如教育、医疗、科研等。同时,也要大力发展反AI技术,用于识别和过滤低质量内容。

除了不传播,还可以积极举报。对于那些明显违反法律法规、传播虚假信息的AI生成内容,及时向平台举报,维护网络环境的健康。另外,也可以参与到相关的讨论中,发出自己的声音,呼吁平台加强监管,打击低质量内容。

同意楼上的说法,AI本身无罪,但它放大了人性的弱点。在流量至上的逻辑下,低质量、博眼球的内容更容易获得传播,导致创作者为了迎合算法而不断生产这类内容。同时,学术界对论文数量的过度追求也给了AI可乘之机,让一些人钻空子,用AI生成垃圾论文来提升自己的发表记录。

从技术哲学的角度来看,AI作为一种工具,其发展方向和应用方式很大程度上受到社会文化和经济利益的驱动。如果社会只关注AI带来的短期利益,而忽视其潜在的风险和伦理问题,那么AI就很容易被滥用,从而产生各种“垃圾”内容。因此,我们需要建立更加完善的监管机制和伦理规范,引导AI朝着更加健康和可持续的方向发展。

我觉得不能完全怪AI,它只是个工具。就像菜刀,可以用做好菜,也能用来犯罪。关键还是看使用它的人,是为了追求流量不择手段,还是为了提升效率、创造价值。平台算法的推波助澜也有责任,劣币驱逐良币啊!

我觉得未来AI内容会更加个性化、智能化,但同时也可能更加隐蔽、欺骗性更强。我们需要不断学习新的技术知识,提升自己的防范意识,不轻易相信AI生成的内容,尤其是一些涉及到个人隐私、财产安全的信息。

作为普通用户,最简单的就是不主动传播这些内容。看到标题党、内容质量差的AI生成内容,直接忽略,不点赞、不评论、不转发,用自己的行动抵制。另外,也要提升自己的信息辨别能力,不轻易相信未经证实的信息。