如果做得好人工智能可以帮助我们学习如何成

电热设备2019年09月20日

  如果做得好 人工智能可以帮助我们学习如何成为更好的人

   12:09来源://

  原标题:如果做得好 人工智能可以帮助我们学习如何成为更好的人

  人工智能未来会辅助人类还是替换人类?这是个问题。

  每一次工业革命都会引发效率革命,淘汰掉大批低效率的从业者。而这一次人工智能革命将对所有行业的效力带来提升,这更加重了人类的焦虑。

  诚然,人类对人工智能产生了很多耽忧,认为它们削弱了“生而为人”的意义。但其实,如果做得好,机器可以帮助我们学习如何成为更好的人。

  尽管现在有许多工作都非常适合由人工智能应用来做,但很显然,处理人类情感可能和其中任何一种都不同。人工智能技术在人类情感领域工作中的运用,出现出人工智能在辅助人类沟通上所发挥的巨大作用。

  “害羞”这个问题,交给ai解决

  保守估计,有75%左右的产生在工作场所的骚扰或歧视事件未被报导——做出这项估计的研究人员发现,人们处理骚扰经历时最不经常使用的方式就是报案。造成这种情况的缘由五花八门,包括对评价或报复的恐惧,以及回忆情绪激动所带来的痛苦和困扰。“人类很害臊,他们不一定必须与人交谈,所以科技可以帮助解决这个问题。”伦敦记忆科学家、《记忆错觉》的作者朱莉亚·肖说。

  2018年2月,肖和她的两位软件工程师合作伙伴共同推出了spot,这是一个基于互联的聊天机器人,它通过使用人工智能来协助人们倾诉那些令他们痛苦的事情。该应用程序的设计是基于心理学家开发的一种采访技术,并由警察局使用以确保记录的叙述尽量全面和准确,它还为报告事件的人提供了匿名选项。

  spot聊天机器人从用户的初始描写中学习,同时,它也会从对某些特定问题的询问中捕捉用户的反应。在用户和机器人共同协作下,生成带有时间标记的相关事件报告,然后用户可以选择将报告发送给他所属的机构或自行保存。截至目前,已有超过50000人访问了spot(该站没有记录哪些人继续进行报告)。站全天24小时开放,因此用户无需再与人力资源部预约。

  “在这些情况下,证据确切很重要,精确度也很重要,”肖说,“spot有用的原因是它消除了人类交互时的隔膜。人与人之间的交互不仅存在风险,而且还会在‘存储’时导致不一致的问题。”

  与人类共情,人工智能有一套

  spot只是机器学习类辅助app新兴市场中的一种工具,它正在努力应对人类情感的巨大主宰力。美国国家经济研究所的报告表明,触及机器学习的美国专利申请数量从2010年的145个增加到2016年的594个,到2018年底,活跃的人工智能类创业公司数量已是2000年的14倍。其中,愈来愈多的公司在专门围绕人类情感设计人工智能运用。spot的发明和使用旨在帮助终止工作场所的歧视现象,但据肖说,它也是“口袋里的记忆科学家”,能够改善我们人类的一个显著弱点:情绪记忆回溯。

  使用机器学习和人工智能来理解和应对人类情感似乎颇具讽刺意味,乃至可能是毛病的行为,但机器可以在某些特定领域中做到“清晰地”思考,而这对人类来说是很困难的。

  例如,消息传递应用ixy,是一款“个人ai调解器”,它有助于增进文本聊天。它可以预览文本,然后告知用户如何与别人接触,旨在消除人与人沟通中存在的焦虑问题。总部位于以色列的beyond verbal也已经发布其“情感分析”软件,这类专利技术致力于通过人的声音来解读其情绪和健康状况,被用于帮助呼叫中心调整员工与客户之间的沟通,同时能够帮助公司监控员工的士气,还可以使ai虚拟助手更好地了解用户的情绪状态。

  beyond verbal首席科学官约拉姆·莱文农(yoram levanon)是该技术的发明者,他设想的运用更加雄心勃勃,包括通过分析人声这类生物特征来监控人们的身体和情绪状态。这款app能够识别出我们的说话方式,这也许比我们说的内容更加重要。

  莱文农说:“ai可以帮助我们,但是不能取代我们。我认为ai是对人类起补充辅助的作用。让ai产生共情,并让其能够理解人类的情感,对辅助人类来说是至关重要的。”

  一些机构已开始使用类似的人工智能,例如澳大利亚sherlok公司开发的音频深度学习技术,布里斯班市议会使用该技术扫描电子邮件、信件、论坛讨论和语音,来揭露呼叫者的“痛点”并提高其员工的技能。另一个以情绪为导向的人工智能技术的最好实践是被应用于销售管理,有案例显示,一家行业领先的公司用它来检测高级管理层对季度分析师所呼吁内容的应对情绪差异,可以获得更好的绩效洞察力。

  谁在背后主宰人工智能?

  在这一点上,你可能会开始听到“反乌托邦”的警钟。人们担心人工智能将被有效地用来判断我们的个性而非我们的表现,并且这种判断不一定正确。人工智能存在的各种偏见问题,很大程度上是由于构建它的人怀有偏见。开发人员中有一种说法——“垃圾输入,垃圾输出”,这意味着该技术可能只与其数据库和算法一样好或一样公平,而非更好或更公平。

  人工智能问题上一个更引人注目的例子就是微软的tay,这款“社交聊天机器人”在2016年 月推出后的24小时内被迫关闭。tay被设计为在社交媒体上与真人交谈,并根据之前的互动回复个性化的内容。但是没有人真正把它看做可靠的聊天对象,当对方聊到种族主义、歧视女性和同性恋、以及其他极端无礼的内容等,聊天机器人自己很快就开始回复出刺耳的评论。

  tay的变化不是一个异常情况。如果ai技术没有得到负的利用,就有可能导致结果恶化、偏见增加、轻视变强,这对该项技术来说是一把双刃剑。

  不负的ai技术可能致使破坏性的后果。例如,2016年5月,调查性机构propublica发现美国法院系统中用于肯定被告是否可能构成风险的算法,错误地将黑人标记为潜在的再审者,其比例是白人的两倍。在这种情况下,人工智能并不是我们本性中更仁慈的天使,而是镜中的魔鬼。

  这个问题的核心在于算法工程师中男性白种人占据了压倒性优势。技术应该是在一种无偏见的真空中设计的,不应受到其他视角的影响。无意识的偏见滋生,可能会对诸如招聘软件之类的工具产生不良后果,事实上,我们已发现这些工具导致某些求职者处于不利地位。还有另一个问题就是这是我们想要的结果吗?今年年初,亚马逊取得两项追踪手环的专利,这种智能手环可以监控员工行迹,由此引发了争议。

  人工智能使我们成为更好的人?

  麦卡高(mccargow)说:“我们还在大山的山麓位置,越来越多的企业正在开发和试用ai技术,但不一定将其大范围应用于企业中。我认为关键的是,它虽然可能还不会对劳动力产生重大影响,但为了未来,我们现在就要考虑清楚。”

  这个未来已经到来。spot应用程序为人们提供了一种记录和澄清其被骚扰报告的方法, ixy可以提供移动聊天的实时反馈以帮助用户进行无障碍交换,beyond verbal希望帮助人们在对话的线路之间进行聆听,以便于更理解对方。越来越多的新技术涌现,这些只是其中的冰山一角,它们的目的就是帮助用户驾驭人类的情感漩涡。未来还会有更多人工智能应用程序出现,我们可以依托它们。

  历史上大多数技术——印刷机、纺织厂、等对工人的变革都是巨大且微妙的,塑造了一个变化却仍可辨认的景观。人工智能的所有变革意义都与其之前的技术变革类似。正如麦卡高所提出的,人们对侵蚀我们人性的机器产生了很多担忧,认为这些机器削弱了人类的意义。但事实并非如此。如果做得好的话,机器可以帮助我们学习如何成为更好的人。

小儿氨酚烷胺颗粒多久吃
糖尿病胃轻瘫腹胀能治好吗
四岁小孩不爱吃饭怎么办
相关阅读
公职考试也看“家庭背景”,这3类人很有优势,考上机会很大!

公详的垄断压力却是是一年比一年大,每年省详、国详都是几十上百万人报上...

2023-11-29
九龙建业拟8.17亿港元购并能杰发展

  乐居财经昨 赵微5月末20日,九龙建业(00034)公告,收购能杰工业发展有限...

2023-11-06
男子伪造才可倒卖物资被上海警方查处

疫情防控任时,一铁饼竟持假冒两车身份证件偷窃社会生活物资,任由疫情防...

2023-10-23
外地产豆奶外包装呈阳性、部分流入早餐店:镇江急寻接触者

外出生产的豆奶、午餐奶送到苏州后被查出外包装一新冠大肠杆菌呈特征性,...

2023-10-14
宁德时代的未来,要看康普顿蔚小理的脸色?

龙岩一时期,迎来了一个夏天。 作为一新能盛动力高压能总量消耗“大型号...

2023-10-10
谢霆锋现身台自曝曾与王晶关系不好,提到王菲时他一脸娇羞

5月8日,郑中基到台省为自家国际品牌做政治宣传。通宵之中走型男路线的他...

2023-10-06
友情链接