发布于:2023-06-24 18:22 阅读次数:
【EA大师新闻】——四位知情人士告诉路透社,Alphabet在全球推广聊天机器人的同时,也在提醒员工如何使用聊天机器人,包括其自己的聊天机器人“Bard”。
知情人士表示,谷歌母公司已经建议员工不要将他们的机密材料输入人工智能聊天机器人,理由是一项长期的信息保护政策。
聊天机器人,包括Bard和ChatGPT,是听起来像人的程序。他们使用所谓的生成式人工智能与用户对话,回答无数的提示。人类评论员可能会阅读聊天记录,研究人员发现,
类似的人工智能可以复制它在训练时吸收的数据,从而产生泄露的风险。
有人说,Alphabet还提醒其工程师避免直接使用聊天机器人可以生成的计算机代码。
当被要求评论时,该公司表示,Bard可以提出不受欢迎的代码建议,但它仍然有助于程序员。谷歌还表示,其目标是对其技术的局限性保持透明。
这些担忧表明,谷歌希望避免其在与ChatGPT竞争时推出的软件对业务造成的损害。谷歌和ChatGPT支持者OpenAI和微软公司之间的竞争涉及数十亿美元的投资。
以及新的人工智能项目带来的未知广告和云收入。
谷歌的谨慎也反映了正在成为企业安全标准的东西,即警告员工不要使用开放的聊天程序。
包括三星、亚马逊(Amazon.com)和德意志银行在内的公司告诉路透社,全球越来越多的企业为人工智能聊天机器人设置了“护栏”。据报道,
苹果公司也是如此,该公司没有回应置评请求。
根据一项对包括美国顶级公司在内的近12,000名受访者的调查,到1月份,约43%的专业人士正在使用ChatGPT或其他人工智能工具,通常不会告诉他们的老板。
据Insider报道,到今年2月,谷歌告诉在发布前测试Bard的员工不要透露内部信息。现在,谷歌正在180多个国家推出40种语言的Bard,作为创造力的跳板,它的警告延伸到代码建议。
谷歌告诉路透社,它已经与爱尔兰数据保护委员会进行了详细的对话,并正在解决监管机构的问题。此前,政治网站周二报道称,谷歌将推迟本周在欧盟的发布,等待更多关于聊天机器人隐私影响的信息。
*对敏感信息的担忧*
这项技术可以起草电子邮件、文档甚至软件本身,有望大大加快任务速度。但是,这些内容可能包含错误信息、敏感数据,甚至是哈利波特小说中受版权保护的段落。
6月1日更新的谷歌隐私声明也指出:“不要在你的Bard对话中包含机密或敏感信息。”
一些公司已经开发了软件来解决这些问题。例如,保护网站免受网络攻击并提供其他云服务的Cloudflare正在推广一种功能,可以让企业对某些数据进行标记并限制其向外部流动。
谷歌和微软也在向商业客户提供对话工具,价格会更高,但不会将数据吸收到公共人工智能模型中。Bard和ChatGPT的默认设置是保存用户的对话历史,用户可以选择删除。
微软消费者业务首席营销官优素福迈赫迪(Yusuf Mehdi)表示,公司不希望员工在工作中使用公共聊天机器人是“有道理的”。
“公司采取了相当保守的立场。”迈赫迪说,他解释了微软免费的Bing聊天机器人与其企业软件的比较。“在那里,我们的政策要严格得多。”
微软拒绝评论它是否全面禁止员工将机密信息输入公共人工智能程序,包括它自己的程序,尽管一位不同的高管告诉路透社,他个人限制了这种使用。
Cloudflare的首席执行官马修普林斯(Matthew Prince)表示,将机密事项输入聊天机器人就像“让一群博士生随意进入你所有的私人记录”。