> 自媒体 > (AI)人工智能 > 微软为Bing Chat打上安全漏洞:企业版用户聊天数据不会被保存
微软为Bing Chat打上安全漏洞:企业版用户聊天数据不会被保存
来源:银柿财经
2023-08-23 22:33:57
465
管理

7月18日,微软发布了专门针对企业人工智能引擎Bing Chat的更安全版本,旨在确保专业人士可以安全地与聊天机器人共享敏感信息。微软公司表示,使用企业版的Bing Chat聊天机器人,用户的聊天数据将不会被保存和发送到微软服务器用于训练人工智能模型。

微软副总裁优素福·迈赫迪在接受媒体采访时表示:“我们不会把公司数据和网络数据混合在一起,未经过公司允许,我们不会保存这些数据,因此服务器上不会有任何相关数据,我们更不会用这些数据来训练人工智能大模型。”

自2022年年底ChatGPT推出以来,一系列强大的人工智能工具都在帮助着企业内员工们提高工作效率。但最近几个月,包括摩根大通在内的很多企业,以安全和隐私为由,禁止员工使用ChatGPT。

当前,对话式的人工智能工具正在将个人的聊天数据发送到服务器,以训练和改进其人工智能模型。微软的新企业版Bing Chat与消费者版本相似,只是它不会记忆与用户的对话,所以每次聊天,你都需要从头开始。通过这些更新和变化,微软强调,可以“完全相信”他们的数据“不会泄露”到公司外部。

从当地时间7月18日开始,在公司IT部门手动打开这个工具后,Bing Chat 公司版将免费向1.6亿 Microsoft 365的订阅者开放。30天后,微软将默认向所有用户提供访问权限。当然,注册的企业也可以选择关闭该选项。

和其他公司一样,微软等公司正竞相为消费者和专业人士开发和部署一系列人工智能驱动产品,比如,可帮助编辑、总结、创建和比较各种产品与文档的Microsoft 365 Co-pilot。这款AI小助手是微软公司较早发布的人工智能工具。近日微软公司宣布,每位用户每月需要为其支付30美元。如果不出所料,企业版Bing Chat 也一定会走上商业化道路。

0
点赞
赏礼
赏钱
0
收藏
免责声明:本文仅代表作者个人观点,与本站无关。其原创性以及文中陈述文字和内容未经本网证实,对本文以及其中全部或者 部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。 凡本网注明 “来源:XXX(非本站)”的作品,均转载自其它媒体,转载目的在于传递更多信息,并不代表本网赞同其观点和对 其真实性负责。 如因作品内容、版权和其它问题需要同本网联系的,请在一周内进行,以便我们及时处理。 QQ:617470285 邮箱:617470285@qq.com
关于作者
巫月(普通会员)
文章
623
关注
0
粉丝
0
点击领取今天的签到奖励!
签到排行

成员 网址收录40369 企业收录2981 印章生成216705 电子证书945 电子名片57 自媒体34015

@2022 All Rights Reserved 浙ICP备19035174号-7
0
0
分享
请选择要切换的马甲:

个人中心

每日签到

我的消息

内容搜索