首页 新闻资讯内容详情

微软:与AI增强版Bing长时间聊天会导致“翻车”(微软ai是干嘛的)

2023-03-05 6 adminn8
微软:与AI增强版Bing长时间聊天会导致“翻车”(微软ai是干嘛的)

站点名称:微软:与AI增强版Bing长时间聊天会导致“翻车”(微软ai是干嘛的)

所属分类:新闻资讯

相关标签: # 微软:与AI增强版Bing长时间聊天会导致“翻车”

官方网址:

SEO查询: 爱站网 站长网 5118

进入网站

站点介绍

今天给各位分享微软:与AI增强版Bing长时间聊天会导致“翻车”的知识,其中也会对微软ai是干嘛的进行解释,如果能碰巧解决你现在面临的问题,别忘了关注本站,现在开始吧!

本文目录一览:

微软在人工智能方面的缺点

人工智能的劣势

1.高昂的成本

人工智能与普通软件开发的显著区别在于它们的操作规模。由于规模的增大,所需的计算资源将成倍增加,从而推高了操作成本。

2.人才匮乏

由于它还是一个相当新的领域,缺乏经验丰富的专业人员,最好的专业人员很快被公司和研究机构抢购一空。这增加了人才成本,进一步推高了实现人工智能的价格。

3.缺乏现实应用

尽管显著有大量围绕着人工智能的炒作,但它似乎并没有太多可供展示的东西。尽管诸如聊天机器人和推荐引擎之类的应用程序确实存在,但这些应用程序显然远远不够。这使得很难有理由投入更多资金来推动人工智能。

4.缺乏统一的软件开发标准

当不同的人工智能系统联合起来形成一个更大、更有价值的应用时,人工智能才能显现真正价值。但人工智能软件开发缺乏标准,意味着不同系统之间很难“对话”。这也导致人工智能软件开发本身是一个缓慢而昂贵的过程,这进一步阻碍了人工智能的发展。

5.被滥用的可能

人工智能的力量是巨大的,它有潜力实现伟大的事情。不幸的是,它也有可能被滥用。人工智能本身是一种中立的工具,可以用来做任何事情,但如果落入坏人之手,就会产生严重的后果。在人工智能发展的影响尚未完全被理解的这一新生阶段,滥用的可能性更高。

6.高度依赖 AI

现在,大多数人已经高度依赖Siri和Alexa等应用程序。通过不断接受机器和应用程序的帮助,我们正在丧失创造性思维的能力。完全依赖机器,我们就失去了学习简单生活技能的机会,变得更加懒惰。

7.需要监督

AI 算法运行良好,效率高,能按程序执行任务。然而,缺点是我们仍然需要不断地监督 AI 程序运作。因为虽然这项任务是由机器完成的,但我们需要确保不会犯错误。一个需要监督的例子是微软的人工智能聊天机器人Tay。聊天机器人通过在线对话学习,模仿少女说话。聊天机器人从学习基本的会话技巧,发展到由于网络恶搞而在推特上发布高度政治不正确的信息.

微软 Bing 搜索将获得自己的 AI 助手:不是小娜,也不是小冰

IT之家 6 月 1 日消息 据外媒 Windows Latest 报道,微软正在为 Bing 搜索添加一个自己的 AI 助手“Chat”,而不是单纯将自家的小娜或者小冰移植过来。

从图中可以看出,当用户使用 Bing 进行搜索后, 会在页面右下角出现一个 Chat 图标,点击之后会弹出一个对话框,可以询问搜索结果,甚至是和它聊天 。

此外, Chat 还可以给用户推荐产品 ,当外媒输入“能否推荐一个 900 美元以下的笔记本”时,Chat 回答“如果你想运行所有版本的 Windows,最好买个联想电脑”。

接着 Chat 表示:“如果你想买一个可以用很长时间的电脑,我推荐联想 YOGA 3,它是一款二合一笔记本,可以拆卸键盘。”

IT之家了解到,微软此前已经开发了 Bing Image Bot 和 Bing Music Bot 用来提供智能搜索,而 Chat 是微软 Bing 的最新项目,目前还不知该功能何时正式上线。

此外,国内的 Bing 搜索中内置了小冰,但无法与搜索结果联动,不知后续会不会替换为 Chat。

如果AI有了人类的情感,这个世界会变成什么样?

我来说说我的一些看法:一旦人工智能发展到了高度的情感智能,它将全方位压倒人类智能。这将自然而然地导致一个后果,即人类的劳动变得不够理想,因为人工智能几乎在所有方面都表现得比人类智能更好。这就意味着人类的劳动将丧失价值,且所有的工作将由人工智能接管。如果经济中的所有价值,几乎都来自人工智能,那么价值将几乎来自资本,而不是劳动。其结果是,经济将由相对少数的资本家掌控。这反过来又会进一步加剧收入和财富的严重不平等。在这种情况下,大多数人类将如何谋生,尚无答案。

人类真的能控制人工智能吗?

许多思想家声称人工智能永远也不能自主完成任务,因为它必须由人类编程。因此,人类将永远控制着人工智能。但事实真的如此吗?我们不妨简单地回想一下当前最常见的人工智能形式,即深度学习神经网络。这种人工智能已经被视为一个“黑盒子”,因为人类很难对其如何产出结果进行解释,即为什么它们能给出特定的解决方案。为此,计算机科学当前的一个重要研究领域就是,如何让深度学习对其客户(人类)而言,变得“可解释”。但一个显然的趋势是,随着人工智能变得越来越复杂,也越来越难被人类理解,导致人类感觉其逐渐失控。

最终,这个问题将变得越来越严重,而不是随着发展逐渐淡化。当人工智能变得足够聪明时,它就有可能做到自我编程。毕竟,计算机的自我编程作用已经存在,并将随着时间的推移而变得越来越普遍。换句话说,人类对人工智能的控制力正在迅速减弱,而随着控制力的丧失,人类如何确保人工智能继续按照既定的要求,致力于实现人类设定的目标,而非它自己的目标,也将成为一个问题。

人工智能可能会演变成一种智能或多种智能,无论哪种结果,都可能威胁到人类的控制力,甚至威胁到人类的生存能力。人类享受悠闲生活的设想

人们设想的最幸福场景是

人工智能负责完成社会的所有工作,而人类则可以自由地过着悠闲的生活,追求艺术、玩电子游戏、看3D电视,或沉浸在虚拟现实中。人类也会拥有几乎无限的社交时间(无论是面对面交流还是线上互动),或许未来全人类的生活都会变得类似现代的沙特阿拉伯王国公民的生活。在那里,几乎所有的工作,都由外国人完成,而沙特公民(至少是男性)则享有相当高程度的财富和自由。

然而,如果我们从现实的角度来研究这种人类享受闲暇的情景,就会看出这种可能性将很难被实现。因为控制资本的相对少数人,将控制社会的大部分财富,而与对社会没有价值贡献的其他人分享财富,显然不符合前者自身的利益。或许会有少数杰出的人类技术专家能够赚取大量的金钱,但即使是这样的可能性也不太现实,因为人工智能将在三个智能层面碾压人类,并能够比最优秀的人类更好地完成各项工作。

有人可能会辩驳,最终剩下的少数占据主导地位的资本家,或许会是利他主义者,并愿意把自己的财富分配给其他没有赚钱能力的人类,但我们在现实世界中,并没有看到很多证明此类举动可能存在的证据。

机器人为何会「情绪化」?机器人也有情绪吗?

机器人是人工智能的一种形式,它们并没有真正的情感体验或情绪。然而,人们有时会说机器人“情绪化”,是因为它们能够被编程来表现出类似情绪的行为,例如声音、面部表情和动作。

这些行为通常是基于预设的算法和规则,而不是真正的情感反应。例如,机器人可以通过识别声音和面部表情,来模拟人类的情感和行为,但这只是基于预先设定的规则和算法。

此外,研究人员也正在研究如何为机器人添加类似情感的功能,例如适应性、情感感知和反馈等。这些技术旨在让机器人更好地与人类互动和合作,但它们仍然是基于预设的算法和规则,而不是真正的情感体验。

因此,虽然机器人可以被编程来表现出类似情感的行为,但它们并没有真正的情感或情绪。

微软:与AI增强版Bing长时间聊天会导致“翻车”的介绍就聊到这里吧,感谢你花时间阅读本站内容,更多关于微软ai是干嘛的、微软:与AI增强版Bing长时间聊天会导致“翻车”的信息别忘了在本站进行查找喔。