威尔·史密斯音乐会 视频 最近互联网越过,不是因为它的性能,而是对人群的表现。 Eagle的眼睛观众注意到了奇怪的手指和面孔,观众以及其他视觉问题以及怀疑AI的操纵。
人群的场景对创建AI图像的工具(尤其是视频)具有特殊的技术挑战。 (史密斯的团队尚未公开发表评论,也没有回应NPR请求对视频的制作方式)。 "您正在管理许多复杂的细节," IA图像专家的旧金山Kyt Janae的艺术家和视觉研究员说。 "您有每个人在人群中。每个人都独立移动并具有独特的特征:他们的头发,脸部,帽子,手机和衬衫。"
但是,诸如Google的IA视频的最新模型 我看到3 和Openai的 Sora 2 他们越来越好。 "我们正在转向一个世界,在一个世界上,在慷慨的时间估计一年的时间里,现实的界限确实会变得模糊," 贾纳说。 "并验证什么是真实的,什么不是真实的,几乎必须成为一种实践。"
为什么人群的图像很重要
在一个社会中,这种观察可能会带来严重的后果,在这个社会中,大批人群致力于公众活动,例如摇滚音乐会,抗议和政治表现形式具有重要的货币。 "我们想要一个视觉指标,一种确定某人是否成功的方法," 托马斯·史密斯(Thomas Smith)说 Gado图像使用AI帮助管理视觉文件的公司。 "人群的大小通常是一个很好的指标。"
到 报告 在全球咨询公司中,Capgemini显示了2023年在社交网络上的近四分之三的共享图像是使用AI生成的。随着越来越多的专业技术创建令人信服的众多场景,操纵图像从未如此简单。随之而来的是一个创造性的机会和社会危险。 "AI是作弊和膨胀人群规模的好方法," 史密斯说。
他补充说,这种现象还有另一个面孔。 "如果有一个真实的形象出现并显示出政治上不便或有害的东西,也会有一种倾向:“不,那是一个错误的AI”。"
一个例子发生在2024年8月,当时当时提名为共和党唐纳德·特朗普 传播虚假主张 卡马拉·哈里斯(Kamala Harris)民主团队使用人工智能创造了众多追随者的形象。
查理·芬克(Charlie Fink)教授查理·芬克(Charlie Fink),他为AI和其他新兴技术写了 福布斯他说,欺骗人们相信虚假的人群场景是真实的,或者人群的真实场景是错误的,这是错误的。 "面临的挑战是,大多数人在小屏幕上看到内容,大多数人对他们所看到和倾听的内容并不批评。 " 芬克说。 "如果看起来真实,那是真实的。"
平衡创造力与公共安全
对于AI图像生成器和社交媒体平台背后的技术公司,图像和视频是由AI Land生成的,在允许用户创建越来越现实和可信的内容之间存在微妙的平衡,包括详细人群的场景和可能的潜在损害。
"我们可以创建结果越现实和可信,人们的创造性表达方式越多," Google Deepmind科学家Oliver Wang说,他编码了公司的一代工作。 "但是错误的信息是我们非常重视的。因此,我们正在用可见的水印和无形的水印来盖章我们生成的所有图像。"
但是,可见品牌,即当前使用Google创建的视频中显示的水印,却易于丢失,隐藏在屏幕的角落。 (看不见的水痕,例如Google 对不起普通用户的眼睛看不到它们;它们帮助技术公司监视现场的AI内容)。
AI标签系统仍在通过平台上非常不平等地应用。尽管NPR为这个故事发表讲话的公司说,他们是有动力开发它们的,但整个行业仍然没有标准。
Meta,Instagram母公司, 眼下 当用户透露它或系统检测时,加载了由AI生成的内容的标签。使用其自己的生成工具在YouTube上创建的Google视频自动在描述中具有标签。他 问 那些创建的人意味着使用其他工具在使用AI时展示自己。蒂克托克 要求 创建者标记由大量或编辑显示的场景或现实的场景所产生的内容。根据我们的设备可能造成的损坏,可以消除,限制或标记非标签的内容。
同时,自从有争议的音乐会视频发布以来,威尔·史密斯(Will Smith)与AI一起玩得开心。他发表了嬉戏 跟进 在其中,相机上散布着歌手的图像,他们在舞台上剧烈演奏,揭示了一个充满拳头的观众。史密斯包括评论: "人群是Poppin’tonite!"
版权2025,NPR