大多数人不信任人工智能并希望有监管,根据最新调查显示 | ENBLE

大多数人不信任人工智能并希望有监管' | ENBLE

一项新的调查发现,大多数美国成年人不信任像ChatGPT这样的人工智能(AI)工具,并担心它们的潜在滥用。调查表明,围绕AI创建的恶意软件和虚假信息的频繁丑闻正在产生影响,公众可能越来越接受对AI进行监管的想法。

来自MITRE公司和Harris Poll的调查声称,在对2063名美国成年人进行调查时,只有39%的受访者认为今天的AI技术“安全可靠”,这一比例比这两家公司在2022年11月进行上次调查时下降了9%。

Sanket Mishra / Pexels

就具体问题而言,82%的受访者担心深度伪造和“其他人工制造的内容”,而80%的人则担心这种技术在恶意软件攻击中的使用。大多数受访者担心AI在身份盗窃、个人数据收集、取代工作中的人类等方面的应用。

事实上,调查表明,人们对AI在各个人口统计群体中的影响越来越警惕。虽然90%的婴儿潮一代担心深度伪造的影响,但72%的Z一代成员也对同一问题感到焦虑。

尽管年轻人对AI的怀疑较少,并且更有可能在日常生活中使用它,但在许多领域,包括行业是否应采取更多措施保护公众以及是否应对AI进行监管,关注度仍然很高。

对监管的强烈支持

Shutterstock

对AI工具的支持下降可能是由于新闻中关于生成AI工具以及ChatGPT、Bing Chat等产品面临的争议的负面报道持续了几个月。随着虚假信息、数据泄露和恶意软件的故事不断增加,似乎公众对即将到来的AI未来变得越来越不易接受。

当在MITRE-Harris的调查中问及政府是否应该介入监管AI时,85%的受访者赞成这个想法,比上次调查增加了3%。同样有85%的人同意这样的说法:“使AI对公众使用的安全可靠需要在产业、政府和学术界之间进行全国范围的努力”,而72%的人认为“联邦政府应该更多地投入时间和资金进行AI安全研究和开发。”

对AI被用于改进恶意软件攻击的广泛担忧是有趣的。我们最近就这个问题与一群网络安全专家进行了讨论,共识似乎是,虽然AI可以用于恶意软件,但目前它并不是一个特别强大的工具。一些专家认为AI编写有效的恶意软件代码的能力很差,而其他人解释说黑客很可能在公共仓库中找到比向AI寻求帮助更好的漏洞利用方式。

然而,对一切与AI有关的事物的日益怀疑可能会塑造该行业的努力,并可能促使像OpenAI这样的公司投入更多资金来保护公众免受其发布的产品的影响。有如此压倒性的支持,如果政府开始尽快制定AI监管政策,也不足为奇。