展会信息港展会大全

消息称谷歌警告员工勿向生成式AI“泄密”,也不要直接用其写代码
来源:互联网   发布日期:2023-06-19 09:08:43   浏览:9461次  

导读:IT之家 6 月 15 日消息,据路透社报道,尽管谷歌是生成式 AI 最坚定的支持者之一,但该公司正在警告员工注意聊天机器人的使用。 ▲图源 Pixabay 知情人士称,谷歌母公司 Alphabet 已建议员工 不要将其机密材料输入给 AI 聊天机器人 ,同时该公司还提醒 IT 工...

IT之家 6 月 15 日消息,据路透社报道,尽管谷歌是生成式 AI 最坚定的支持者之一,但该公司正在警告员工注意聊天机器人的使用。

消息称谷歌警告员工勿向生成式AI“泄密”,也不要直接用其写代码

▲图源 Pixabay

知情人士称,谷歌母公司 Alphabet 已建议员工不要将其机密材料输入给 AI 聊天机器人,同时该公司还提醒 IT 工程师避免直接使用聊天机器人生成的计算机代码

谷歌对此回应称,其聊天机器人 Bard 可以提出不受欢迎的代码建议,但它仍然对 IT 工程师们会有所帮助。谷歌表示其目标是对生成式 AI 的技术局限性保持足够的透明度。

分析人士指出,这些担忧表明谷歌希望避免生成式 AI 对公司的商业化运作造成损害,这种谨慎的态度也体现出对生成式 AI 的使用限制正越发成为某种具有共性的企业安全标准。

IT之家此前报道,包括三星、亚马逊、苹果等大型科技企业对员工使用生成式 AI 都设置了一定的限制,以确保不会对公司运营造成风险。

支持 OpenAI 的微软则拒绝评论是否已全面禁止员工将机密信息输入 ChatGPT 这样的公共 AI 应用。但微软消费者业务首席营销官 Yusuf Mehdi 曾表示,公司不希望员工使用公共聊天机器人工作是“有道理的”。

根据 Fishbowl 对包括美国顶级公司员工在内的近 12000 名受访者的调查,截至今年 1 月,约 43% 的专业人士在工作中使用了 ChatGPT 或其他生成式 AI 工具,而且通常都没有告诉他们的老板。

赞助本站

相关内容
AiLab云推荐
推荐内容
展开

热门栏目HotCates

Copyright © 2010-2024 AiLab Team. 人工智能实验室 版权所有    关于我们 | 联系我们 | 广告服务 | 公司动态 | 免责声明 | 隐私条款 | 工作机会 | 展会港