81%的美国人从未听说过这家公司!
发布时间:2025-12-28 10:18
新智慧报告主编:庆庆【新智慧介绍】2025年,AI将像空气一样广阔,但我们更不敢呼吸。横跨美国民意调查揭露了科技繁荣的假象:效率的背后是蓝领工人的倒计时和白领工人的盲目。如果“战胜敌人”不再重要,我们该如何维护人类的最终解释权?过去20年,那些遥远的技术,电视、电脑、互联网、智能手机,都指向同一个目的:被欣赏、被接受、被依赖,直到像呼吸一样自然。但这套逻辑应用到AI上就行不通了。它在很短的时间内就渗透到了我们的生活中,但却没有赢得我们的信任。美国公众对人工智能重要性的判断。大多数人认为人工智能是可与智能手机相媲美的怪物技术,而不是蒸汽机和电力等“文明级”基础设施。在pe在ople看来,人工智能不像互联网或智能手机,而是像一种新型社交媒体——高效、有粘性,而且……具有威胁性。美国公众对各种技术总体社会影响的网络评价比较。 AI整体好感度明显低于互联网和智能手机,更接近社交媒体。人们抛下对科技的热情,第一次认真审视这个“新朋友”:我们真的要把整个未来托付给AI吗?先使用它,再了解它:人工智能正在成为新的“黑匣子中介”。很多人都在使用人工智能,但真正理解人工智能的人却比人们想象的要少。这不是某某科技公司的年度总结,而是探照灯研究所的全国民意调查。比起模型表现,研究者更关心一些实际问题:当人工智能真正进入生活时,人们会如何看待它?为何不安?调查结果令人不安:近一半的受访者认为像ChatGPT这样的工具“返回数据库”或根据某些预设脚本进行回答。工具和公司之间的认知脱节。 ChatGPT是家喻户晓的名字,但超过40%的人从未听说过OpenAI;像Anthropic这样核心技术圈的公司,80%以上的人都没听说过。比较公众对美国与主要科技公司的看法。与谷歌、亚马逊等传统科技公司相比,人工智能公司存在着巨大的“认知差距”。先使用,再理解。这是一种非常危险的“逻辑倒置”。当我们在不知道人工智能是如何运作、依据什么判断、影响谁的情况下对人工智能进行验证、筛选和总结时,力量的平衡悄然倾斜。报告中有一个细节:人工智能正在成为新的“信息中介”。越来越多的人习惯于寻找原始信息,而不是直接访问原始信息。模型生成的摘要、排名和解释。这意味着,无论是公共问题还是健康信息,实际上在我们看到之前就已经被人工智能“处理”过了。当这种过滤成为一种微妙的习惯时,问题就不仅仅是信息来源是否准确,而是——我们看到的世界是真实的世界,还是人工智能编造的世界?相同的技术,不同的生存本能。调查显示,白领群体对人工智能的接受度更高。他们将其很好地融入到写作、组织和审阅的过程中。对他们来说,人工智能是生产力的加速器和效率的延伸。但从服务业和体力劳动者的角度来看,观点却完全相反。超过一半的服务业从业人员认为人工智能最终将取代他们目前的生计。他们从不担心模型质量,也不关心版本变更。他们只是想知道这个系统是否对我或他有帮助吸引我了。这确实是这次调查中最残酷的部分。 AI造成的划分从来不是关于使用它的能力,而是你处于不同位置时的生存直觉。对于白领来说,人工智能为他们执行琐碎、低风险的任务;但对于服务提供商来说,人工智能将取代标准化、可复制且易于通过数据衡量的劳动力。美国AI用户主要使用场景。目前,人工智能更多地用于信息检索、文本处理等认知任务,而不是直接干预实际生产。通过这两种技术,一方面可以看到效率的提高,而另一方面则可以看到失业的倒计时。美国公众对人工智能与就业关系的判断。这种担忧不仅仅存在于某一特定行业。大多数美国人认为人工智能是人民的工作,而不是增加工作。这种恐惧也不是均匀分布的。调查中,医生、电工ns,而维修工最不担心被“替换”。因为他们深知,现实的物理世界充满了模糊的情境和未知的场所,这些都是现有算法难以渗透的禁地。在生死攸关的时刻,人们无法将“道德责任”转移到一段代码上。 AI可以处理海量数据,但它无法做出“应该或不应该”的决定;它可以给出准确的建议,但不能对最终的后果负责。在这条看不见的裂缝之上,人工智能不仅仅是进步的象征,它更像是一面镜子,冷冷地映照着职业和阶级发展中不平衡的冒险行为。 2025年的要点:速度不再是最高值。当谈到“做什么”时,人们的态度出奇地一致。超过三分之二的受访者认为,目前政府对人工智能的监管太少。这并不是要求公司提出暂停键,也不是禁止技术本身,而是明确的价值取向:人工智能可以继续发展,但前提是必须经过测试、预防和追责。真正有趣的是关于“速度和安全”的多项选择题。当“监管可能导致国际竞争力下降”这一尖锐的筹码摆上桌面时,大多数受访者依然不为所动。他们不再“无限制地领导”,而是更愿意接受速度较慢但更安全的版本。这是一个非常明显的叙事反转。长期以来,技术进步总是被包装成一场势不可挡的军备竞赛——慢了就会被超越,犹豫就会被淘汰。但当谈到人工智能时,普通人开始意识到:赢得比赛的奖励与失败的奖励是不同的。他们最终要承担的后果通常不是同一群人。在预在国际竞争的格局中,显然美国公众仍然更倾向于优先考虑人工智能安全和隐私规则的制定。如果成功的代价是工作不稳定、隐私暴露、判断力转移,那么即使技术指标遥遥领先,这种成功也无法让人安心。美国公众对人工智能风险和监管重点的主要担忧。大多数担忧都集中在实际方面,例如工作、隐私和信息秩序。调查中还有一个更为极端的假设:在“完全不受监管的AI”和“干脆禁止发展”之间,大多数人并没有投票给第一个,甚至陷入了长期的犹豫。这种不情愿本身就是一种声明。公众不再迷信“技术越快越好”。他们权衡风险是否接近个人生活的底线。并非所有决定都应该留给算法。在这项调查中,人们我没有表现出盲目的拒绝。相反,大家对AI的认识非常清晰。其实处理事情更好、更快、更好,有明确的规则。但当问题开始变得模糊时,当后果必须由特定的人来承担时,当判断涉及复杂的价值权衡时,信任不会盲目地向技术倾斜。这就是为什么在“道德”、“复杂决策”和“透明度”等维度上,人仍然被认为是不可替代的。人工智能可以给出看似完美的答案,但它并不接受其答案的后果。所谓防线,不是阻挡科技浪潮,而是保持判断力、责任链、对错误的最小承诺。当信息开始被算法过滤,当工作被系统重构,当越来越多的决策发生在我们看不到的“中间“层”时,人们真正需要的是什么?保护的是解释世界的权利:谁有权做出决定,谁应该对这个决定负责。这也使得 2025 年变得独一无二。今年,人们开始停下来问:在人工智能走得太远之前,我们是否已经清楚地划定了属于人类的界限?参考资料:https://x.com/rohanpaul_ai/status/2003646532676194634https://www.searchlightinstitute.org/research/americans-have-mixed-views-of-ai-and-an-appetite-for-regulation/妙柴ASI ⭐赞,加⭐星,锁定快推新致远! 特别声明:以上内容(如有,包括照片或视频)由自媒体平台“网易号”用户上传发布。本平台仅提供信息存储服务。 注:上述名称(包括照片和视频,如有)由网易号用户上传发布,网易号为社交媒体平台,仅提供信息存储服务。