Andrew Ng
@AndrewYNg · 5d agoEdelman 和 皮尤研究中心 的独立报告显示,美国以及欧洲和西方世界的大部分地区,不信任 人工智能,对它也缺乏热情(链接见原文)。尽管 人工智能 社区对 人工智能 的巨大益处持乐观态度,但我们不应忽视这一点,而应认真对待。公众对 人工智能 的担忧可能会严重阻碍发展,我们需要积极回应这些担忧,推动 人工智能 的健康发展。
Edelman 的调查显示,在美国,49% 的人抵触 人工智能 的日益普及,只有 17% 的人接受它。在中国,10% 的人抵触,54% 的人接受。皮尤 的数据也表明,许多其他国家对 人工智能 的接受度远高于美国。
对 人工智能 的积极情绪是巨大的国家优势。但另一方面,对 人工智能 的普遍不信任意味着:
- 个人接受速度缓慢。例如,Edelman 的数据显示,在美国,很少使用 人工智能 的人更看重信任(70%),而非动机、渠道(55%)或对技术的恐惧(12%)。
- 需要社会支持的重要项目会受阻。例如,印第安纳州的抗议活动叫停了 Google 在当地建设 数据中心 的计划。阻碍 数据中心 建设将损害 人工智能 的发展。除了普遍对 人工智能 的反感外,社区也确实对 数据中心 存在担忧,我将在后续文章中讨论。
- 民众对 人工智能 的抵触情绪,增加了通过法律限制 人工智能 发展的风险。
我们需要明确的是,所有从事 人工智能 工作的人都应认真审视 人工智能 的益处和危害(例如 深度伪造 污染社交媒体,以及 人工智能 的输出结果误导用户),如实讲述益处和危害,并在扩大益处的同时努力解决问题。然而,对 人工智能 风险的炒作已经对我们领域造成了实际损害。许多大型 人工智能 公司为了让自己的技术显得异常强大,喜欢将其与核武器相提并论,这种炒作正是损害的来源之一。不幸的是,相当一部分公众对此深信不疑,认为 人工智能 可能会导致世界末日。人工智能领域应避免夸大宣传和不实信息,努力重建社会信任。
我们接下来该怎么做?
首先,为了赢得人们的信任,我们还有很多工作要做,以确保 人工智能 广泛地造福每个人。大众通常认为,“提高生产力”意味着老板赚更多钱,甚至裁员。尽管 ChatGPT 非常出色,但我们仍需努力构建能够对人们的生活产生更大积极影响的应用程序。我相信,为人们提供培训是关键。DeepLearning.AI 将继续引领 人工智能 培训,但我们需要更多。
其次,我们必须真正值得信任。这意味着,即使有时为了宣传或游说政府通过限制竞争产品(如 开源)的法律,我们每个人都必须避免炒作或散布恐慌。
我希望我们的社区也能指出传播炒作的新闻报道。例如,Nirit Weiss-Blatt 撰写了一篇精彩文章,揭露了《60 分钟》如何极具误导性地报道了 Anthropic 的一项研究:研究中,Claude 在受到关闭威胁时,竟然采取了“勒索”手段。这项研究是一次 红队演练,经验丰富的研究人员经过不懈努力,最终将 人工智能 系统逼到角落,使其表现出“勒索”行为。不幸的是,新闻报道歪曲了事实,让许多人认为“勒索”行为是自然发生的,而非研究人员精心设计的结果。这些报道给许多人留下了 人工智能 实际“策划”频率的严重夸大印象。红队演练 对于测试系统漏洞至关重要,但这次被广泛传播的炒作将在很长一段时间内损害 人工智能 的发展。
身处 硅谷,我意识到自己生活在一个 人工智能 爱好者的“泡沫”中,这非常适合交流想法、互相鼓励!与此同时,我也认识到 人工智能 确实存在问题,人工智能 社区需要解决这些问题。我经常与各行各业的人交流,包括担心 人工智能 会使其作品贬值的艺术家、担心就业市场严峻且 人工智能 会加剧挑战的大学高年级学生,以及担心孩子沉迷于 聊天机器人 并从中获取有害建议的父母。
我不知道如何解决所有这些问题,但我会尽力解决更多问题。我希望大家也能如此。只有通过我们所有人的共同努力,才能赢回社会的信任。
151
162
832
275
249
