谷歌提醒员工避免将机密信息输入Bard聊天机器人
时间:2023-06-26
来源:网络
作者:网络
6月19日消息,据路透社报道,谷歌母公司Alphabet在全球推广其聊天机器人Bard的同时,也提醒员工在使用聊天机器人时要小心。Alphabet已经建议员工不要将机密材料输入人工智能聊天机器人,这被谷歌证实为其保护信息的长期政策。
谷歌的Bard是一款强大的聊天机器人,但据知情人士透露,Alphabet提醒其员工不要将机密材料输入该机器人。此外,他们还建议工程师避免直接使用Bard生成的计算机代码。谷歌承认Bard可能会给出不合适的代码建议,但仍表示该机器人可以帮助程序员,并强调了保持技术局限性透明的目标。
这一谨慎态度反映了企业安全标准的发展趋势,即警告员工不要使用公开可用的聊天程序。不仅谷歌,越来越多的全球企业都对AI聊天机器人采取了防护措施,其中包括三星、亚马逊和德意志银行。据报道,苹果也采取了类似的措施,但尚未对此置评。
根据Fishbowl社交网站的一项调查显示,今年1月份有43%的专业人士使用了ChatGPT或其他AI工具,其中很多人没有告诉他们的老板。该调查涵盖了近1.2万名受访者,其中包括一些来自美国顶级公司的员工。
谷歌目前正在向180多个国家推广Bard,谷歌在6月1日更新的隐私声明中明确表示:“不要在你的Bard对话中包含机密或敏感信息。”这一措施进一步强调了保护信息安全的重要性。
据了解,企业对于使用聊天机器人时的安全问题越来越重视。谷歌的提醒以及其他公司的类似行动表明,保护机密和敏感信息已成为企业的首要任务。在快速发展的AI领域,确保技术使用的透明和安全对于保护企业和用户利益至关重要。