少找工具,多做创作

九成美国成年人见过AI社媒内容,仅四成自认能辨真伪

九成美国成年人见过AI社媒内容,仅四成自认能辨真伪

生成式AI技术的爆发式发展,正在重构社交媒体的内容生态,也给公众的信息真实性判断带来严峻挑战。近日美国科技媒体CNET的一项调查显示,94%的美国成年人表示曾在社交平台上接触过AI生成的图片或视频,但仅有44%的受访者自认能够准确分辨内容真伪。超半数受访者呼吁对AI内容进行强制标签标识,而认可这类内容价值的比例仅为11%。

这项覆盖全美成年人的调查数据,直观反映出AI生成内容已经深度渗透到普通用户的社媒日常。从明星“虚拟合影”到历史人物的“穿越”视频,AI生成的影音内容凭借低成本、高逼真度的特点,正在成为社交平台上的常见内容。以调查中提及的AI生成肯尼迪手持智能手机的图像为例,画面细节打磨精细,人物神态、光影处理几乎达到以假乱真的程度,若非对历史背景有清晰认知,普通用户很难第一时间察觉其伪造属性。

然而,AI内容的普及速度,远超用户鉴别能力的提升。仅有44%的受访者自认能准确辨伪,这一数据背后还暗藏隐忧——所谓“自认能够分辨”,往往依赖于过往对AI内容瑕疵的经验判断,但随着生成式AI模型的迭代,MidJourney、Runway等工具的持续升级,AI生成内容的逻辑漏洞、像素瑕疵正在被快速修复,肉眼识别的准确率实际上可能远低于受访者的自我认知。在具体的鉴别方式上,60%的受访者表示会通过反复观察画面细节进行“肉眼排查”,但这种方法在面对高精度深度伪造内容时,无异于“用放大镜找针尖”,效率低下且容错率极低。

更值得关注的是公众对AI内容的价值判断与监管诉求:仅11%的受访者认为AI生成的社媒内容具备价值,超半数人明确支持对AI内容进行更明确的标签标识。这一态度背后,是用户对AI内容潜在风险的警惕——当AI生成的虚假政治演讲、名人丑闻视频在社媒快速传播时,可能短时间内引发舆论恐慌,甚至干扰公众对公共事件的判断,损害个人名誉乃至社会稳定。此前美国就曾出现AI生成的某州长虚假辞职视频,在推特上几小时内转发量破十万,直至官方澄清才平息混乱。

AI伦理研究专家指出,当AI生成内容的逼真度逼近人类感知极限,肉眼鉴别已经不再可靠,技术手段和监管规则必须跟上。目前,部分社交平台已经尝试引入AI检测工具,对平台内的AI生成内容进行识别和标注,但统一的行业标准仍未形成;欧盟、美国等地区正在推进AI内容标签化的立法讨论,但如何平衡技术创新与信息安全,仍是亟待解决的问题。

生成式AI的发展是不可逆转的趋势,但如何让这项技术在创造价值的同时,避免成为虚假信息的温床,需要技术开发者、平台方、监管机构和用户的共同努力。未来,或许只有建立起“技术检测+强制标签+用户教育”的三重防线,才能帮助公众在AI内容泛滥的时代,守住信息真实性的底线。

!
本文内容来源于公开互联网信息,并包含平台新增内容及用户发布内容,旨在进行知识整理与分享。文中所有信息与观点均仅供参考,不代表任何官方或特定立场,亦不构成任何操作或决策建议,请读者谨慎甄别,详情请见完整免责声明
相关资讯
AI小创