学习啦 > 新闻资讯 > 科技 > 人工智能的结课论文(2)

人工智能的结课论文(2)

时间: 坤杰951 分享

人工智能的结课论文

  人工智能的结课论文篇二

  人工智能的曙光

  强大的电脑科技将重新规划人类的未来,但如何才能确保其带来的好处会多于危险呢?

  “世上真的有上帝吗?”科学家用颤抖的声音问道。

  “现在有了。”世界上最聪明的人工智能电脑回答。话毕,一道电光闪过它的电源插头――人们再也关不掉它了。

  这是斯蒂芬・霍金在出席脱口秀时阐述的一则“恐怖故事”,而在前不久的伦敦“谷歌时代精神”大会上,霍金平静地描述了人类的命运:“在未来100年内,结合人工智能的计算机将会变得比人类更聪明。”

  斯蒂芬・霍金警示道:“人工智能的全面发展可能为让人类征途画上句号。”特斯拉汽车公司与美国太空探索技术公司CEO伊隆・马斯克则担心人工智能可能会成为人类生存所要面临的最大威胁。持有同样看法的还有微软创始人比尔・盖茨。今年年初,他们都在在一封提倡控制人工智能发展的公开信上签下自己的名字。

  人们害怕自己所创造出来的人工智能会反客为主成为自己的主宰,或是刽子手――虽然这种观点还很新,但已然成为一种不可忽视的新趋势。毕竟,这是由著名的宇宙论者,硅谷企业家以及微软的创始人,可能还是卢德派分子(强烈反对提高机械化和自动化者)提出的,而这一观点也被用来反对诸如谷歌、微软等大公司对于人工智能开发的巨大投资。随着超级电脑的日益普及,机器人在各个战场的无往不胜,只把人工智能和机器人定义在科学领域就显得太自欺欺人了,现在的问题是,我们究竟该担心什么?

  你教我语言以及……

  首先我们需要了解一下电脑现在能做什么,以及它们未来可能能做什么。得益于加工工艺的发展以及越来越丰富的数码数据,人工智能的能力得到了爆炸性增长。通过模仿人类大脑的神经元以及摄入大量的数据,如今的“深度学习”系统可以教会他们自己完成诸多任务。从图形识别到翻译,人工智能几乎可以和人类做的一样好。结局就是,那些需要动脑完成的游戏,如“青蛙过河”,现在已经可以通过电脑程序解决。2014年由Facebook公司推出的DeepFace演算系统,就可以从图片中识别出人脸,识别率高达97%。

  尤为关键的是,这项能力是有特定用途的。如今的人工智能是通过简单粗暴的数值计算来伪装成“智能”,而不是像人类的思想一样是在自主地思考,或是出于对某物的兴趣和渴望进行思考。现在的电脑智能尚无法像人类那样拥有灵活的推测判断的能力。

  不过,人工智能已有足够的力量给人类的生活带来翻天覆地的影响。它可以与人类互补,从而增强人类的能力。就拿国际象棋来说,电脑现在已经玩得比任何人都好,虽然世界顶尖的国际象棋大师并不是机器,但被世界棋王卡斯帕洛夫称为“半人马”的就是混合着人类与演算程序的队伍。这样一种集成形态会逐渐成为人机追逐赛的常态:有了人工智能的帮助,医生可以更方便地标记癌症;智能手机中的语音识别系统可以将互联网带给数百万发展中国家的文盲人群;数字助理会对学术研究提出有用的假说;图像分类系统让可穿戴电脑将真实世界的有用信息直观呈现在人们的眼前。

  从短期来看,不是所有的情况都是乐观的。比如,人工智能又唤醒了机械设备对于国家安全的作用。无论是专制国家还是民主国家,这种可以监视上亿个场景,并且可以通过人脸或声音从人群中识别出每一个市民的能力,都会对民众自由构成重大的威胁。

  即使整个社会都能从人工智能那儿得到巨大的好处,仍会有许多个人遭受损失。曾经,做着如今电脑们做的活儿的是苦工们,而且大多是女性:她们为自己的上司们做着无尽的计算工作。而就像现在电脑替代了她们一样,人工智能可能会让整个白领阶层都丢了工作。当然,更多的教育和训练会有所帮助,而借助人工智能产生的财富也会被用于创造新的工作,不过工人们注定会失去位置。

  监视手段和混乱并不是霍金、马斯克和盖茨所担心的,也不是好莱坞近期密集推出未来人工智能电影的原因。他们所担心的是更长远、更具启示的问题:这些具有超人的智慧与能力的机器人们会最终与人类作对。

  不过,离这样的人工智能出现还有很长一段路要走,而实际上它们可能根本不会被创造出来。即使对大脑进行了长达一个世纪之久的研究,心理学家、神经学家、社会学家以及哲学家们仍旧无法理解大脑是由什么构成的,或者它是什么。

  我知道如何诅咒

  不过即使霍金认为人工智能很有希望将实现,对于科学家们而言这仍是仍重而道远,必须小心谨慎地进行规划。其实这一过程比看上去要容易,尤其是人类已经创造出了有着超人能力和没有共同利益的自治实体,并且使用了很长一段时间。政府官僚、市场以及军队都可以完成独立的、无组织的人类所不能完成的任务。而这些团体都如人工智能一样,可以自主运作,承担自己的生活,以及如果没有法律法规的管辖,它们都会对社会造成危害。

  这些相似点应该能够安抚人们对于未来人工智能的恐惧,而这同时也为科学家如何安全地开发人工智能提出了实质性的建议。就如同军队需要平民的监督,市场需要被调节,以及政府需要公开化和透明化一样,人工智能系统也需要公开检验。而由于在设计系统时不可能预见到所有的情况及应对方法,所以该系统也一定要有一个关闭按钮。这些措施也能在不妨碍人工智能系统开发的同时有效地约束它。从核武器到交通规则,人类有能力用巧妙的技术和合法的约束控制这些强大的科技革新。

  “人类最终会创造出一种自主的非人类的智能”这一观点就像幽灵一样一直萦绕在人们心头。这实在是太特别了,让人们不断地为其争论。是的,这里危机重重,不过这也不能掩盖,人工智能的曙光所带来的巨大利益。

  看了“人工智能的结课论文”的人还看了:

2497030