MITSloan&BCG:构建强大的RAI程序

在发布后的短短几个月里,OpenAI的ChatGPT工具将人工智能的能力、道德挑战和失败推到了聚光灯下。人工智能聊天机器人编造故事的例子数不胜数,包括错误地指控一名法学教授性骚扰,并将一名澳大利亚市长牵扯到虚假的贿赂丑闻中,这导致了首例针对人工智能聊天机器人的诽谤诉讼。今年4月,三星的三名员工在ChatGPT上输入内部会议记录和源代码,不小心泄露了公司的机密信息,这让三星上了头条。这一消息促使摩根大通(JPMorgan)和威瑞森(Verizon)等许多公司禁止企业系统访问人工智能聊天机器人。事实上,在彭博社(Bloomberg)最近的一项调查中,近一半的受访公司表示,他们正在积极制定员工使用聊天机器人的政策,这表明相当大一部分企业对这些发展措手不及,没有做好准备。

事实上,人工智能的快速发展使得负责任地使用人工智能变得更加困难。例如,公司越来越依赖于新兴的第三方人工智能工具,以及快速采用生成式人工智能算法,这些算法使用训练数据生成逼真或看似真实的文本、图像或音频,这使他们面临新的商业、法律和声誉风险。而且,这些风险难以追踪。在某些情况下,管理人员可能对员工或组织中的其他人使用这些工具缺乏任何意识,这种现象被称为影子人工智能。正如斯坦福大学法律法典研究员Riyanka Roy Choudhury所说,“AI框架并不是为了应对生成式人工智能工具带来的突如其来的、难以想象的风险而编写的。”

感谢支持199IT
我们致力为中国互联网研究和咨询及IT行业数据专业人员和决策者提供一个数据共享平台。

要继续访问我们的网站,只需关闭您的广告拦截器并刷新页面。
滚动到顶部