在近年来的大多数科技 CEO 听证会上,立法者都采取了有争议的语气,就高管们的数据隐私做法、竞争方法等问题盘问他们。
但在周二的AI 监督听证会上,包括 OpenAI 首席执行官 Sam Altman 在内,立法者似乎对 ChatGPT 制造商更加欢迎。一位参议员甚至问奥特曼是否有资格管理该行业的规则。
人工智能如何威胁主要行业和商业模式
萨曼莎·苏宾
3小时前
奥特曼在国会山受到热烈欢迎,其中包括前一天晚上与数十名众议院立法者举行的晚宴讨论,以及周二下午由加利福尼亚州共和党众议院议长凯文麦卡锡出席的单独演讲活动,这引起了一些人工智能专家的担忧,他们不在场本周出勤率。
这些专家警告说,立法者决定从领先的行业高管那里了解这项技术可能会过度影响他们寻求监管人工智能的解决方案。在 Altman 作证后几天与 CNBC 的对话中,AI 领导人敦促国会与该领域的各种声音进行接触,以确保解决广泛的问题,而不是关注那些为企业利益服务的问题。
OpenAI 没有立即回应对此事发表评论的请求。
对于一些专家来说,听证会的基调和奥特曼在希尔的其他活动引起了警觉。
信号基金会主席兼纽约大学 AI Now 研究所联合创始人梅雷迪思·惠特克 (Meredith Whittaker) 表示,立法者对奥特曼的赞美有时听起来几乎像是“名人崇拜”。
“你不会向你所关注的人提出尖锐的问题,”她说。
“这听起来不像是那种以问责制为导向的听证会,”AI Now Institute 常务董事莎拉·迈尔斯·韦斯特 (Sarah Myers West) 说。“说,‘哦,你应该负责一个新的监管机构’并不是一种问责态度。”
韦斯特表示,与奥特曼共进晚餐后,一些代表的“赞美”语气令人惊讶。她承认,这可能“表明他们只是想弄清楚这个新市场到底是什么。”
但她补充说,“这不是新的。它已经存在了很长时间。”
加州大学洛杉矶分校教授、《压迫算法:搜索引擎如何强化种族主义》一书的作者 Safiya Umoja Noble 说,与 Altman 共进晚餐的立法者似乎“深受影响,欣赏他的产品和他的公司正在做的事情。这也没有这似乎是对这些技术是什么的事实的公平审议。”
“老实说,看到国会让这些首席执行官为全权委托铺平道路,无论他们想要什么,对他们最有利的条款,这令人沮丧,”诺布尔说。
在周二的参议院听证会上,立法者将社交媒体时代与社交媒体时代进行了比较,并对行业高管现身要求监管感到惊讶。但接受 CNBC 采访的专家表示,行业要求监管并不是什么新鲜事,而且通常符合行业自身的利益。
惠特克说:“注意这里的细节非常重要,不要让技术人员在不嘲笑的情况下说‘监管’这个词的所谓新颖性分散了我们对真正利害关系和实际提议的内容以及这些监管的实质内容的注意力。” .
“Facebook 多年来一直在使用这种策略,”纽约大学教授、《不仅仅是一个小故障:面对技术中的种族、性别和能力偏见》一书的作者梅雷迪思·布鲁萨德 (Meredith Broussard) 在谈到监管呼吁时说。“真的,他们所做的就是说,‘哦,是的,我们绝对准备好接受监管。’......然后他们游说 [for] 恰恰相反。他们利用了混乱。”
专家警告说,奥特曼建议的监管类型,例如监督人工智能的机构,实际上可能会拖延监管并巩固现有企业。
人工智能公司 Hugging Face 的研究员兼首席伦理科学家玛格丽特米切尔说:“这似乎是完全减缓监管进展的好方法。” “政府已经没有足够的资源来很好地支持他们已有的机构和实体。”
Ravit Dotan 是匹兹堡大学 AI 伦理实验室的负责人,也是生成式 AI 初创公司 Bria.ai 的 AI 伦理负责人。他们不应该主导谈话。
“小公司普遍担心的一个问题是,监管是否会如此繁琐,以至于只有大公司才能真正应对[它],然后小公司最终会承担很多负担,”多坦说道。
几位研究人员表示,政府应该专注于执行已有的法律,并对最近的一份联合机构声明表示赞赏,该声明断言美国已经有权针对人工智能的使用造成的歧视性结果采取执法行动。
Dotan 说,当她觉得立法者在他们的问题中“知情”时,听证会上有亮点。但在其他情况下,她说她希望立法者向奥特曼施压,要求他做出更深入的解释或做出承诺。
例如,当被问及人工智能取代工作岗位的可能性时,奥特曼表示,最终它将创造更多高质量的工作岗位。虽然 Dotan 表示她同意这一评估,但她希望立法者向 Altman 提出更多可能的解决方案,以帮助流离失所的工人在新的工作机会变得更广泛之前找到谋生或获得技能培训。
“在微软的支持下,一家拥有 OpenAI 实力的公司可以做很多事情谈到流离失所,”多坦说。“所以对我来说,把它留作‘你的市场最终会自行解决’是非常令人失望的。”
人工智能专家向立法者和政府官员传达的一个关键信息是,在考虑对技术进行监管时,要包括更广泛的个人背景和经验领域的声音。
“我认为社区组织和研究人员应该参与进来;一直在研究各种不同技术的有害影响的人应该参与进来,”Noble 说。“我们应该为那些受到这些技术破坏和伤害的人提供政策和资源......有很多伟大的修复想法来自那些受到伤害的人。我们真的还没有看到有意义的以这些方式参与。”
米切尔说,她希望国会更具体地与参与审计人工智能工具的人以及监视资本主义和人机交互方面的专家等进行接触。韦斯特建议,在受人工智能影响的领域拥有专业知识的人也应该包括在内,比如劳工和气候专家。
惠特克指出,“联邦政府之外可能已经有了更多有意义的监管希望种子”,并以美国作家协会罢工为例,其中要求包括 AI 的工作保护。
Noble 表示,政府还应该更加关注社会科学等领域的研究人员并为其提供更多资源,他们在揭示技术如何导致歧视和偏见方面发挥了重要作用。
“围绕人工智能对社会的影响提出的许多挑战都来自人文主义者和社会科学家,”她说。“但我们看到,坦率地说,基于我们的发现的资金现在正在分配回与行业合作的计算机科学部门。”
诺布尔表示,她“震惊”地看到白宫宣布资助七个新的人工智能研究中心似乎侧重于计算机科学。
“我认识的大多数女性在过去 20 年中一直是围绕 AI 危害发声的主要人物,他们没有被邀请到白宫,没有得到 [国家科学基金会] 的资助,也没有被包括在任何形式的变革性的支持,”诺布尔说。“然而,我们的工作确实已经并且已经对改变关于这些技术对社会的影响的对话产生了巨大影响。”
诺布尔指出本月早些时候的白宫会议,其中包括奥特曼和其他科技公司的首席执行官,例如谷歌的Sundar Pichai 和微软的 Satya Nadella。诺布尔说,那次会议的照片“真实地讲述了谁让自己负责的故事。……同样是问题的制造者,现在以某种方式负责解决方案。”
诺布尔说,让独立研究人员与政府接触将使这些专家有机会对公司的证词做出“重要的反驳”。
尽管如此,其他专家指出,他们和他们的同行已经就 AI 问题与政府进行了接触,尽管没有像 Altman 的听证会那样受到媒体的关注,而且可能没有像 Altman 出席的立法者参加的晚宴那样的大型活动。
米切尔担心立法者现在已经从与行业领导者的讨论中“准备好”了。
“他们决定开始这些讨论,以公司利益为基础进行这些讨论,”米切尔说。“他们本可以朝完全相反的方向走,最后问他们。”
米切尔说,她感谢奥特曼对第 230 条的评论,该法律有助于保护在线平台免于对其用户的言论负责。Altman 承认,生成式 AI 工具的输出不一定包含在法律责任保护范围内,需要一个不同的框架来评估 AI 产品的责任。
“我认为,美国政府最终会朝着有利于大型科技公司的方向发展,”米切尔说。“我希望其他人,或者像我这样的人,至少可以将损害降到最低,或者在细节中表现出一些魔鬼,以引导人们远离一些更有问题的想法。”
Broussard 说:“有一大批人一直在警告 AI 系统内部存在的问题,包括种族、性别和残疾方面的偏见。” “如果批评的声音像商业声音一样高涨,那么我认为我们将进行更强有力的对话。”