(相关资料图)
近日,据知情人士透露,谷歌母公司Alphabet在全球推广其聊天机器人Bard的同时,也提醒员工在使用聊天机器人时要小心,甚至包括自家的Bard。Alphabet要求员工避免将机密材料输入AI聊天机器人,谷歌证实了此消息,表示这是保护信息的长期政策。除此之外,Alphabet还建议工程师避免使用聊天机器人生成的计算机代码。谷歌解释,尽管Bard可能给出不合适的代码建议,但它仍能够协助程序员。因此,谷歌一直努力保持技术局限性的透明化。企业安全标准趋向于告诫员工不要使用公开的聊天程序,越来越多的企业,如三星、亚马逊和德意志银行等,已经对AI聊天机器人采取了预防措施。据悉,苹果也遵循这一趋势,不过该公司并未回应相关置评请求。根据一项调查,今年1月份有43%的专业人士在使用ChatGPT或其他AI工具时,并未告知上司。调查涵盖近1.2万名受访者,包括一些美国顶级公司的员工。目前,谷歌正在向180多个国家推广Bard,并在6月1日更新的隐私声明中提醒用户不要在Bard对话中包含机密或敏感信息。
关键词: