人工智能背后的操控者是谁?

2024-05-14

1. 人工智能背后的操控者是谁?

“9·11 是犹太人干的,把他们都送进毒气室!种族战争现在开始!”
2016年3月23日,一个人设为19岁女性,昵称为 Tay 的聊天机器人在推特上线。这个微软开发的机器人能够通过抓取和用户互动的数据模仿人类的对话,像人一样用笑话、段子和表情包聊天。但是上线不到一天,Tay 就被“调教”成了一个满口叫嚣着种族清洗的极端分子,微软只好以系统升级为由将其下架。
微软聊天机器人的极端言论。
这样的口号并不是聊天机器人的发明,而在社交网络上大量存在着。美国大选期间,一些所谓的“政治新媒体”账号发出的掺杂阴谋论、种族主义的内容,在Facebook 上进行了病毒式传播。这有赖于人工智能协助下的“精准定位”:谁最容易相信阴谋论,谁对现实最不满?相应的政治广告和假新闻能精准地投放到这群人中,使人对自己的看法更加深信不疑。
因为设计缺陷而 “暴走”的聊天机器人,和精心策划的线上政治行为,看起来仿佛是两回事。但这种我们似乎从未见过的景象,却指向了同一个“凶器”——大数据驱动下的人工智能。
1、人工智能有作恶的能力吗?
人工智能会“作恶”吗?面对智能的崛起,许多人抱有忧虑和不安: 拥有感情和偏见的人会作恶,而仅凭理性计算进行判定的计算机似乎也会“作恶”, 且作起来易如反掌。这让许多人(特别是非技术领域的人)对人工智能的发展持悲观态度。
这种忧虑并不是最近才有的。人工智能这个词诞生于上世纪50年代,指可体现出思维行动的计算机硬件或者软件,而 对机器“拥有思维”之后的伦理探讨,早至阿西莫夫开始就在科幻作品里出现。
14 年前,威尔·史密斯主演的电影《机械公敌》里就有这样一个场景:2035 年的人类社会,超高级的人工智能承担大量工作,并与人类和谐相处。这些原本完全符合阿西莫夫“三定律”的人工智能,在一次关键升级之后对人类发起了进攻。这些机器人拥有了思维进化的能力,在它们的推算下,要达到“不伤害人类”的目的,就必须先消灭“彼此伤害”的人类。
十分高产的科幻作家阿西莫夫(1920-1992)。

看起来,人工智能并不像人类一样拥有所谓“人性”,并不与我们共享一个道德伦理体系。 然而 将智能的“作恶”简单理解为“人性缺乏”,未免把这个问题看得太过简单。
一方面,机器似乎还不够“智能”。 南京大学计算机科学与技术系副教授、人工智能专家俞扬认为,“人性”对于人工智能来说是一个非常“高层次”的东西。“描述一张图片上,有草原,有狮子,机器可以做到,”俞扬举了个例子,“而要归纳它是‘非洲’,就要更高级一些,对机器来说更困难。”他说,判断一件事情在道德上好不好,意义上怎么样,目前来讲并不是机器的能力范围。
而正视人工智能的“恶”,或许应该首先找出作恶之源——为什么人工智能忽然变得可怕起来?
另一方面,机器似乎已经太过“智能”,某些方面几乎要超越人类的理解。 近 10 年,人工智能领域迎来了爆发,这要得益于 “机器学习”的发展:拥有强大运算能力的计算机程序能够对大量数据进行自动挖掘和分析,并学习各种行为模式。输入和输出不再是人工赋予的几个变量掌控,而是让机器在大量数据中自己分析特征,决定变量权重。
目前最火的领域“深度学习”就是这样——行业者有时会将其戏谑地称为 “当代炼金术”:输入各类数据训练 AI,“炼”出一堆我们也不知道为啥会成这样的玩意儿。 处理数据的神经网络,通常由数十个或者上百个(或者更多)神经元组成,然后用数层逻辑结构组织起来,运算过程及其复杂。智能程序自己给自己设定算法和权重,而最后为什么输出了某个决策,人类并不能完全理解。
这看起来就仿佛一种本能一样——蒙特利尔大学的计算机科学家约书亚·本奇奥将其称为 “人工直觉” (artificial intuition)。

我们会信任一个我们“无法理解”的决策对象吗?当它出错的时候,我们能够察觉、能够纠正吗?
“我们必须清楚地知道人工智能会做出什么样的决策。对人工智能的应用范围,以及应用结果的预期,一定要有约束。”俞扬认为,“黑箱”的现实应用,一定要慎之又慎。环境是否可控,是否经过了可理解性的测试,决定了它是否可以用在关键的场所,否则就是产品的重大缺陷。
今天的人工智能之所以危险,不仅是因为它已经具备了一定的能力和“权力”,还因为 人类生活的大规模网络化、数字化,为机器的“学习”提供了足够多的数据“食粮”。
今天的人工智能与其说是拥有“思维”,不如说是对于人类世界中现存数据的反映和理解。与其说“没有人性”,会不会是“太有人性”? 机器是否也继承了我们既有的偏见、无常和贪婪? 
2、人工智能的罪恶之源
人工智能在判断上失误的一个指责,是它经常会 “歧视”。使用最先进图像识别技术的谷歌曾经陷入“种族歧视”的指责,只因它的搜索引擎会将黑人打上“猩猩”的标签;而搜索“不职业的发型”,里面绝大多数是黑人的大辫子。哈佛大学数据隐私实验室教授拉谭雅·斯维尼发现,在谷歌上搜索有“黑人特征”的名字,很可能弹出与犯罪记录相关的广告——来自谷歌智能广告工具 Adsense 给出的结果。
而这种危险并不仅仅是 “另眼相看”本身——毕竟将一张黑人的照片打上“猩猩”的标签,只是有点冒犯罢了。而 人工智能的决策正走入更多与个人命运切实相关的领域,切实影响着就业、福利以及个人信用,我们很难对这些领域的“不公平”视而不见。
人工智能会加剧人类社会的不公平吗?

对每个毕业季都会收到数以万计简历的大公司人力部门而言, 用机器筛简历并不是什么新鲜的事情,百分之七十以上的简历甚至都到不了 HR 的眼皮底下。 筛简历的 AI(业界用语“雇佣前评估”)因此而获得了大约30亿美元左右的市场。有些关键词,例如性别、地域,或者出身阶层,至少在明面上,是不宜成为筛选标准的——这个时候,HR 就会以“并不适合”为由,推掉不喜欢的性别、籍贯乃至星座。那么,彻底排除 HR 或者项目经理个人偏见的人工智能会解决这个问题吗?答案可能会更糟。
最新的人工智能雇佣辅助技术,并不需要人为设置关键词,而全靠“过往的优秀员工数据”对机器的训练,决策权重也并不是加或者减去一个过滤的变量就能解决的,看起来似乎十分公平。 然而人工智能的检视,却让少数族裔、女性、或者有心理疾病史的人更难找到工作。
美国 IT 作家、数学家凯西·奥尼尔曾经调查到,人力资源解决方案公司 Kronos 提供的智能筛选服务会用“个性测试”把有心理疾病史的申请者挡在门外;而施乐在招聘的时候发现,人工智能大量过滤掉了有色人种的申请,因为这些申请者提供的地址位于市内某黑人聚居区。
金融领域也不例外。位于美国洛杉矶的科技金融公司 Zest 开发了一个人工智能信用评估平台 ZAML,使用用户网络行为,而不是实际的信用记录,来判定用户的信用值。
百度作为搜索引擎合作商,向他们提供了大量可以数据用于归纳出用户可能的财务状况。它声称有近十万个数据点,没有所谓“决定因素”,因为美国法律禁止金融机构以性别、种族或宗教等决定一个人的信用。然而在现实应用中,对于不同人群的“另眼相看”却体现得非常明显——比如,它会“研读用户的申请”,检查申请中是否有语法和拼写错误等,来判定一个人“守规矩”的倾向;然而这导致并不能熟练使用英语的移民群体在信用问题上被抹黑。
歧视的来源是哪里?是打标签者的别有用心,是数据拟合的偏差,还是程序设计哪里出了 bug? 机器所计算出的结果,能为歧视、不公、残酷提供理由吗? 这些都是值得商榷的问题。
我们训练机器的“过往数据”,实际上是人类自身偏见和行为的产物。 《MIT 商业评论》的分析者认为,类似于 ZAML 的智能采用的“贴标签”策略,很难排除相关性(而非因果性)带来的偏见。少数族裔常常会因某种特定行为被打上标签(比如访问某个网络社区等),即使他/她有良好的信誉和稳定的工作,只要出现这样的行为,就可能会被人工智能判定为低信用,需要为他/她的借贷支付更高的利息,或者干脆没有资格。
机器能解决处理效率的问题,却不能避免“过往数据”本身造成的缺陷。一个公司过去10年男员工工资比女员工高,有可能源自某个高层的性别歧视;智能筛选却能把对于此群体的偏见刻印在对于个体的判断上,这跟人类的刻板印象如出一辙。问题在于,机器的抉择往往被包装上“科学”“客观”的外衣, 此类解决方案往往能够因为其科技噱头而卖出高价,殊不知只是用“科学结果”对现有的偏见进行的“大数据洗白”。
3、资本驱动的数据世界
如果说“过往数据”的积累是机器作恶的基础的话,那么资本力量的驱动则是更深层次的原因。
如同开篇提到的那样,2016 年美国大选期间,一家叫剑桥分析(Cambridge Analytica)的公司使用人工智能技术,针对任意一个潜在选民的“心理特征”投放付费政治广告;而投什么样的广告,取决于一个人的政治倾向、情绪特征、以及易受影响的程度。很多虚假的消息在特定人群中能够迅速传播、增加曝光,并潜移默化地影响人们的价值判断。技术主使克里斯托弗·威利最近向媒体揭发了这个人工智能技术的“食粮”来源——以学术研究为名,有意攫取的 5000 多万用户数据。

剑桥分析CEO亚历山大·尼克斯(Alexander Nix)。
剑桥分析并不是一个孤例。澳洲一个 Facebook 的广告客户透露,Facebook 的人工智能会分析其用户特征和所发的内容,给出诸如“有不安全感的年轻人”“抑郁、压力大”等标签,然后有针对性地投放游戏、瘾品和甚至虚假交友网站的广告,从中获取巨大利益。
即使不存在数据泄露问题,对用户数据的所谓“智能挖掘”也很容易游走在“合规”但“有违公平”的边缘。例如,电商能够根据一个人的消费习惯和消费能力的计算,对某个人进行针对的、精密的价格歧视。购买同样的商品,用 iPhone X 手机的用户很可能会比用安卓“千元机”的用户付更多的价钱,因为他们“倾向于对价格不敏感”。而我们所经常谈论的“大数据杀熟”——比如携程老用户订旅馆的价格会更高——也建立在用户行为数据的基础上。
数据的收集本身也值得商榷。前百度人工智能首席科学家吴恩达(Andrew Ng)就曾公开表示, 大公司的产品常常不是为了收入而做,而是为了用户的数据而做;在某一个产品上收集的数据,会用于在另一个产品上获利。 在智能面前,没有所谓的个人隐私和行踪,也很难确定数据收集的边界在哪里,尤其是个人隐私与公共信息、主动提供与被动提供的边界。
总而言之, 在以商业利益为目标的人工智能眼里,并没有“人”或者“用户”的概念,一切都是可以利用的数据。 剑桥大学互联网与社会研究中心教授朔沙娜·祖博夫将这种人工智能和资本“合体”的现状,称之为 “监控资本主义” (Surveillance Capitalism)——在大数据和人工智能的协助下,通过对每个人的监控和信息的榨取,实现资本的最大化。
业界对此的态度很暧昧。AI 作为当下最热门、来钱最快的行当之一,这些动辄年薪50万美元的工程师很少得闲来思考“形而上”的问题。 一位不愿具名的研究人员在与我的微信私聊中表达了他的“个人看法”:“现在的技术离‘通用人工智能’还很远,对社会伦理方面的影响没有那么大,更多还是从繁琐的重复劳动中解脱出来。”
作者试图找到行业内人士对此评论,谷歌(中国)和百度自动驾驶部门的人工智能相关人员均表示,探讨 AI 的社会问题,牵涉到公司利益和形象,比较敏感,不便评论。
“人工智能作为一个工具,如何使用,目前来看决定权依然在人。”俞扬说道 ,“系统的设计者和商业(应用)的提供人员需要对此负责。”
如何负责?这或许需要我们正视人工智能对整个社会关系的挑战。
4、人工智能作恶之后
2018年3月 19 日,一辆自动驾驶的优步(Uber)在美国亚利桑那州惹上了麻烦。面对路中出现的一个推着自行车的女性,这辆车速 38 mph(约61km/h)的沃尔沃在昏暗的光线条件下并没有减速,径直撞了上去,受害者被送往医院之后不治身亡。这是自动驾驶第一例行人致死的事故。
电视台对自动驾驶优步车祸的报道。
事故发生之后,有不少人将矛头指向了自动驾驶的人工智能是否足够安全上,或者呼吁优步禁止自动驾驶。然而更关键的问题在于,亚利桑那有着全美国几乎最开放的自动驾驶政策,事故发生地坦佩市(Tempe)是实行自动驾驶最火的“试验田”之一;事故所在的街区早已做过路线测试,并被自动驾驶的智能采纳。但是在事故发生之后,对于责任的认定依然遇到了困难。
因为人的疏忽造成的车祸数不胜数,人们早已习惯了如何处理、怎样追责;然而机器出错了之后,人们忽然手足无措。 人工智能会出错吗?当然会。只是我们在这个问题上一直缺乏认知。 就如同上文提到的“隐性歧视”,深度学习的“黑箱”,现有的法律法规很难对这些错误进行追究,因为不要说普通人,就连技术人员也很难找出出错的源头。
当人工智能的决策在人类社会中越来越重要时,我们也不得不考虑,智能为什么会犯错,犯错了怎么办;若要让智能摆脱被商业或者政治目的支使的工具,真正成为人类的“伙伴”, 需要怎么监管、如何教育,才能让人工智能“不作恶”。
人工智能的监管问题亟待解决。
对此,现有的法律框架内很难有清晰的、可操作的实施方案。欧盟率先在数据和算法安全领域做出了立法的尝试,2018年5月即将生效的新法规规定,商业公司有责任公开“影响个人的重大决策”是否由机器自动做出,且做出的决策必须要“可以解释”(explainable)。但法条并没有规定怎么解释,以及细到什么程度的解释是可以接受的。
另外一个重要的问题是, 让机器求真求善,需要人类自己直面决策中的黑暗角落。 在 Atari 游戏智能的测试中,游戏中的人工智能 bot 可以用最快的速度找到漏洞开始作弊,而游戏玩家又何尝不是呢?不管是带有歧视的语义分析,针对少数族裔进行的“智能监视”和跟踪,或者把已婚未育女性的简历扔掉的智能简历筛选,都长期以各种形式存在于人类社会中。
人工智能不是一个可预测的、完美的理性机器,它会拥有人类可能拥有的道德缺陷,受制于人们使用的目标和评估体系。 至少目前,机器依然是人类实然世界的反应,而不是“应然世界”的指导和先驱。 对机器的训练同样少不了对人性和社会本身的审视——谁在使用,为了什么而使用,在我们的世界中扮演着怎样的角色?数据是谁给的,训练的目标是谁定的?我们期望中的机器,会继承我们自己的善恶吗?
谷歌中国人工智慧和机器学习首席科学家李飞飞认为, 要让机器“不作恶”,人工智能的开发需要有人本关怀 。“AI 需要反映我们人类智能中更深层的部分,”李飞飞在《纽约时报》的专栏中写道,“要让机器能全面地感知人类思维……知道人类需要什么。”她认为,这已经超越了单纯计算机科学的领域,而需要心理学、认知科学乃至社会学的参与。
未来,人工智能进入更多的领域、发挥更强的功能,是无可争辩的事实。然而,我们的生产关系能否适应人工智能带来的生产力,这句马克思政治经济学的基本原则值得我们认真思考一番。 我们并不想看到未来的“机器暴政”将我们的社会绑在既有的偏见、秩序和资本操纵中。 
一个AI
人工智能之所以会作恶,可能就是因为太像人类了吧。

人工智能背后的操控者是谁?

2. “人工智能+”时代来了吗?

早上,被智能音箱叫醒,同时还提醒你上午要给朋友回电话;去上班,用导航地图走了避免拥堵的路线;路上,拍了张照片,用修图软件一键PS;到了办公室,刷一下根据你兴趣推荐的新闻。
这样的场景,你是否熟悉?不过,你可能并未意识到,这背后,其实都有人工智能的影子。
当然,这些并不是人工智能的全部。
现状——
人工智能已在身边
“人类终将使电脑智能化且使其远胜人脑。”这是1987年复旦大学计算机科学系毕业生陆奇给同学的临别赠言。
如今,身为百度集团总裁兼首席运营官的陆奇,正和万千程序员与亿万公众一起,经历着人工智能的跌宕起伏和带来的巨大改变。
从可以跟你聊天的“小冰”到能帮你开电视的智能音箱,从机器翻译到智能教育,从刷脸支付到无人驾驶,从可穿戴设备到智能医疗……人工智能已经全面走入人类的生活,广泛渗透到生产和生活的各个领域,并不断刷新人们的想象力。
在新闻领域,基于大数据和人工智能的个性化推荐已成为不少新闻App的标配,写稿机器人、智能视频剪刀手等生产工具也在不断涌现;
在教育领域,人工智能已经被应用在批改作业、教英文等教学项目,探索“私人订制”“千人千面”的个性化学习模式;
在语音识别和翻译领域,翻译软件已经可以支持全球数十种热门语言互译、覆盖几百个翻译方向;
在金融领域,生物识别技术的应用使得刷脸支付已成为现实,以较低成本提供个性化专属财富管理方案的智能投顾也已在不断发展中;
在物流领域,智能分单、智能配送机器人、无人仓、无人机等产品和服务,已在不断帮助快递业提升物流速度和服务水平;
在零售领域,除了无人超市等吸引眼球的探索性应用外,人工智能还被用来对超市的生鲜商品进货量进行预测;
在交通领域,除了地图、导航等应用外,备受关注的无人驾驶也有了新的进展;
在医疗领域,利用AI和大数据的能力,可以让机器筛查和分析医学影像,来辅助医生诊断;
……

当然,人工智能的应用不仅是在第三产业,在农业、工业和社会治理领域,人工智能的赋能作用也都有不错的表现。
相比人工智能诞生后的两次最终陷于沉寂的热潮,这次的人工智能研究和应用遍地开花,热潮来得更为贴近产业。
“人工智能这次浪潮其实是更稳健的浪潮,技术基础、数据技术、计算基础、社会基础都比较扎实。”微软亚洲研究院副院长张益肇表示,“此次人工智能浪潮比以往拥有更多落地的实际应用场景,产学研互动比以前更丰富。”
“‘人工智能+’时代已经到来。”猎豹移动创始人兼CEO傅盛说。
改变——
重塑中的各行各业
变化是显而易见的,而影响,有些已然显现,有些还在水面之下。
“人工智能技术的不断发展必将不断重塑各行各业以及我们的生活。”张益肇将这种“重塑”概括为三个方面:推动产业向智能化转变、引发商业创新、让人们的生活更美好。
对各行各业而言,直观的变化是效率的提升。
在工业领域,来自阿里云的数据显示,通过其推出的ET工业大脑,光伏切片企业协鑫光伏良品率提升超过1%,每年带来经济效益超亿元;轮胎生产企业中策橡胶则将良品率最高提升了5%。“先进制造业可能是AI效益杠杆最大的行业”,阿里巴巴集团副总裁刘松说。
在信用评级领域,以机器学习为基础的大数据风控,在提高信贷服务效率、增加金融服务覆盖率方面,效果明显。据百度方面介绍,其教育信贷基本上是以“秒”的时间就可决定是不是给一个人放贷。
“过去40年,前20年的数字化进程改变了生产资料,后20年的网络化进程重构了市场关系,未来20年人工智能模糊了生产资料和劳动力之间的界限,其使命是与传统产业嫁接,降低生产成本,对生产力产生数量级的提升。”驭势科技联合创始人、CEO吴甘沙说。
这种提升催生了一个极具想象力的增量空间。
据咨询公司埃森哲2017年6月发布的《人工智能:助力中国经济增长》报告显示,制造业、农林渔业、批发和零售业将成为从人工智能应用中获益最多的3个行业。到2035年,人工智能将推动这三大行业的年增长率分别提升2%、1.8%和1.7%。
影响还将发生在社会治理领域。
专家表示,随着人工智能技术的发展,未来政府的很多管理方式都有必要从追逐式管理变成预测式管理。
2016年,杭州市政府牵头联合了包括阿里云等13家企业开始进行城市数据大脑的探索。在杭州萧山的试点发现,通过智能调节红绿灯,区域内通行速度提升15%,让120救护车到达现场时间缩短了一半;在杭州主城区,部分区域通行时间缩短15.3%。
对个人而言,除了生活领域的改变,影响还将发生在职业领域——未来,一些重复性的工作,如在线客服、速记翻译、驾驶员等都可能被人工智能取代。
不过,业内人士也表示,对此不必过于担心,在产生职业替代的同时,AI也会产生新的行业。“集装箱出现以后,搬运工人担心会失业,在港口却出现了很多吊桥工人。”在阿里巴巴集团董事局主席马云看来,新技术不是让人失业,而是让人做更有价值的事情,让人不去重复自己,而是去创新,让人的工作能够“进化”。
巨大的影响,带来足够快的行业增长率。
据数据显示,中国人工智能产业规模2016年已突破100亿元,增长率达到43.3%,预计2017年增长率将提高至51.2%,产业规模达到152.10亿元,并于2019年增长至344.30亿元。
不过,在业内人士看来,目前这些影响,还只是冰山一角。
麦肯锡全球研究院认为,人工智能正在促进人类社会发生转变,这种转变将比工业革命“发生的速度快10倍,规模大300倍,影响几乎大3000倍”。
“在不久的未来,智能流就会像今天的电流一样平静地环绕、支持着我们,在一切环节提供养料,彻底改变人类经济、政治、社会、生活的形态。”百度董事长兼CEO李彦宏如是表示。
未来——
百米赛跑才刚刚起步
“我要看到未来的自己。”这是百度大脑给《智能革命》这本书所作序言的最后一句。
未来的人工智能什么样?现在可能谁都没有答案,但能确定的是,当下只是个开始。
“如果把人工智能应用比喻成百米赛跑,现在是刚刚起步。”张益肇说,“人工智能现阶段就是互联网在上世纪90年代初期的那个阶段。”
政府、企业、资本等多种推动,成为这一波人工智能火起来的“助推器”。当然,与许多互联网发展进程的新事物一样,人工智能在成为风口的同时,也还存在待突破的瓶颈。
从技术层面看,目前人工智能还处于“黑箱”决策阶段,而且“主要方法论仍是基于大数据、大计算模式”,想让机器像人类那样思考,就必须“喂”给它天量数据,由此导致目前人工智能落地还存在行业局限,“拥有大量数据积累和分析需求的行业更适合实现转型。”张益肇说。
此外,从国内情况看,人才缺口对意图发力人工智能领域的企业来说,也正成为一大制约。
“全国人工智能研究方向的博士、硕士每年只有不到200人,而如今的创业公司多如牛毛,这个数字根本不够分。”李彦宏直言。来自领英的数据显示,全球范围内,人工智能专业人才有195万,中国只占2%,排名第七。
从行业层面看,重应用、轻基础的急功近利,无序与重复投资、过热与概念包装、浮躁与浮夸并存等问题也不容忽视。有业内人士直言,需要警惕人工智能“网红化”的倾向。
商汤科技联合创始人兼CEO徐立直言,国内人工智能创业大多扎堆在应用层面,创业者使用开源算法,找到某个垂直领域便套上“人工智能”概念扎进去,但真正从算法层出发做“原创技术”的人并不多。“而这块才是核心,是最需要厚积薄发的。”
不过,业内人士也表示,这些可以理解为“成长的烦恼”:是瓶颈,也是下一步发力的方向。从更广阔的时代眼光看,中国正处于发展AI的良好机遇期。
从人才角度看,已经现出明显成长性。乌镇智库的数据显示,在人工智能专利数上,最近5年,中国专利数平均每年增速为43%;美国增速为21.7%。其中,2016年中国新增的人工智能专利数突破9000,超过美国的两倍。
“中国人工智能企业数量、专利申请数量及融资规模均仅次于美国,位列全球第二。”陆奇分析表示,中国拥有巨大的市场机会和独有的海量数据,这对于海外人才的吸引力不容忽视。事实上,近年来,吴恩达、李飞飞等一批知名AI人才纷纷回国发展,也佐证了这一点。

国家的重视也在为人工智能的发展助力。2016年3月,人工智能一词写入国家“十三五”规划纲要。2017年3月,人工智能首次被写入《政府工作报告》,如今《新一代人工智能发展规划》也已正式印发。
“中国在这次科技浪潮上是赶在前面的,深度学习有超过40%的论文是华人发表的,这次我们和专家沟通起来没有语言障碍,也没有时差障碍。我们有很好的数据、巨大的样本群,有很好的工程师队伍,又有全球一流的制造能力。”傅盛表示:“未来是人与机器人共存,中国存在弯道超车的机会。”
从这个意义上讲,未来已来,只是尚未流行。

3. 人工智能”是智能么

人工智能”是智能么
在电影“终结者2”里,人类未来的领袖约翰康纳问从未来穿越回来的T-800机器人他是否可以学习人类的行为,T-800说他的CPU是一个神经网络处理器,一个会学习的计算机,但他的芯片被设定成了“只读”,需要在芯片里修改程序就可以进行学习了。
在约翰康纳设定完成后,T-800学会了用西班牙语说再见、以及更高级的微笑等人类行为。
这个情节其实涉及到我们经常提到的人工智能、机器学习、深度学习这三个概念,但人们对这三个概念不一定有清晰的认识。我们要了解这三个词汇的含义,并理清它们之间的关系。
文 |韩方旭,电子信息产业发展研究院中国软件评测中心
人工智能分为弱人工智能和强人工智能,前者让机器具备观察和感知的能力,可以做到一定程度的理解和推理,强人工智能让机器获得自适应能力,解决一些之前没有遇到过的问题。而人工智能的实现主要依赖于机器学习。
机器学习是一种实现人工智能的方法。机器学习最基本的做法,是使用算法来解析数据、从中学习,然后对真实世界中的事件做出决策和预测。与传统的为解决特定任务而编码的软件程序不同,机器学习是用大量的数据来“训练”,通过各种算法从数据中学习如何完成任务。机器学习传统的算法包括决策树、聚类、贝叶斯分类等。从学习方法上来分可以分为监督学习、无监督学习、半监督学习、集成学习、深度学习和强化学习。
深度学习是一种实现机器学习的技术。最初的深度学习是利用深度神经网络来解决特征表达的一种学习过程(深度神经网络可大致理解为包含多个隐含层的神经网络结构)。深度学习本来并不是一种独立的学习方法,其本身也会用到有监督和无监督的学习方法来训练深度神经网络。但由于近几年该领域发展迅猛,一些特有的学习手段相继被提出(如残差网络),因此越来越多的人将其单独看作一种学习的方法。
综上,机器学习是一种实现人工智能的方法,深度学习是一种实现机器学习的技术。并且可以看出,目前世界上机器人产商所说的人工智能主要集中于弱人工智能这一领域,通过加装视觉传感器、力觉传感器、激光雷达等多种类型的传感收集周围信息,通过支持主流深度学习框架,利用智能算法库,提高机器人在完成交互、感知、识别、分类、决策等任务的表现。目前虽然距离实现强人工智能还有比较大的差距,但通过软硬件技术的不断进步,以及基础研究的积累,也许我们在不远的将来可以实现强人工智能。

人工智能”是智能么

4. 人工智能是怎么实现的?

人工智能在计算机上实现时有2种不同的方式。一种是采用传统的编程技术,使系统呈现智能的效果,而不考虑所用方法是否与人或动物机体所用的方法相同。这种方法叫工程学方法(Engineering 
approach),它已在一些领域内作出了成果,如文字识别、电脑下棋等。另一种是模拟法(Modeling 
approach),它不仅要看效果,还要求实现方法也和人类或生物机体所用的方法相同或相类似。本书介绍的遗传算法(Generic 
Algorithm,简称GA)和人工神经网络(Artificial Neural 
Network,简称ANN)均属后一类型。遗传算法模拟人类或生物的遗传-进化机制,人工神经网络则是模拟人类或动物大脑中神经细胞的活动方式。为了得到相同智能效果,两种方式通常都可使用。采用前一种方法,需要人工详细规定程序逻辑,如果游戏简单,还是方便的。如果游戏复杂,角色数量和活动空间增加,相应的逻辑就会很复杂(按指数式增长),人工编程就非常繁琐,容易出错。而一旦出错,就必须修改原程序,重新编译、调试,最后为用户提供一个新的版本或提供一个新补丁,非常麻烦。采用后一种方法时,编程者要为每一角色设计一个智能系统(一个模块)来进行控制,这个智能系统(模块)开始什么也不懂,就像初生婴儿那样,但它能够学习,能渐渐地适应环境,应付各种复杂情况。这种系统开始也常犯错误,但它能吸取教训,下一次运行时就可能改正,至少不会永远错下去,用不到发布新版本或打补丁。利用这种方法来实现人工智能,要求编程者具有生物学的思考方法,入门难度大一点。但一旦入了门,就可得到广泛应用。由于这种方法编程时无须对角色的活动规律做详细规定,应用于复杂问题,通常会比前一种方法更省力。

5. 人工智能是怎么实现的?

工智能(Artificial Intelligence)是研究、开发用于模拟、延伸和扩展人智能的理论、方法、技术及应用系统的一门新技术科学。人工智能领域的研究包括机器人、语言识别、图像识别、自然语言处理和专家系统等。
人工智能(Artificial Intelligence),英文缩写为AI。它是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新技术科学。
人工智能是计算机科学的一个分支,它企图了解智能的实质,可以产出一种新的可以和人类智能相似的方式做出反应的智能机器,该领域的研究主要有机器人、语言识别、图像识别、自然语言处理和专家系统等。
自从人工智能诞生以来,理论和技术越来越成熟,应用领域在不断的扩大,可以设想,未来人工智能带来的科技产品,将会是人类智慧的“容器”。人工智能可以把人的意识、思维的信息过程的模拟。虽然人工智能不是人的智能,但可以像人那样思考、最终可能超过人的智能。
优点:
1、在生产方面,效率更高且成本低廉的机器及人工智能实体代替了人的各种能力,人类的劳动力将大大被解放。
2、人类环境问题将会得到一定的改善,较少的资源可以满足更大的需求。
3、人工智能可以提高人类认识世界、适应世界的能力。
缺点:
1、人工智能代替了人类做各种各样的事情,人类失业率会明显的增高,人类就会处于无依靠可生存的状态。

人工智能是怎么实现的?

6. 哪些“人工”要被“智能”代替?

人工智能技术加速革新,镜头能捕捉的数据信息加速扩围。2016年起,北京搜狗科技发展有限公司开始研究“中文唇语识别”并取得初步成果:基于大数据、可视化分析、人工智能等技术,可以提取视频图像中人物连续的口型变化特征,通过识别系统计算出自然语言语句,并同步显现文字。

阿里云“ET城市大脑”,应用于城市治理、实时交通感知及优化、特殊车辆绿波带等,为市民节省10%出行时间,为应急车辆压缩通行时间50%;百度DuerOS对话式人工智能系统,可以实现影音娱乐、信息查询、生活服务等10大类目100多项功能操作;中国电子科技集团公司“社会治理与风险感知防控平台”,让“存在就有痕迹、联系就有信息”……

工业和信息化部副部长陈肇雄说,以企业为主体,当前中国产学研各界围绕人工智能前沿技术进行全面攻关,图像识别、语音识别、无人驾驶等应用技术进展迅速,智能网联汽车、机器人、无人机、智能家居等领域形成大量特色鲜明的应用案例。
“对人类来讲可能有一定的困难,但对计算机来说是容易的,这一类工作肯定会不断被机器代替。”中国科学院院士张钹说。

7. 人工智能?

人工智能(Artificial Intelligence),英文缩写为AI。它是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学。 人工智能是计算机科学的一个分支,它企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器,该领域的研究包括机器人、语言识别、图像识别、自然语言处理和专家系统等。人工智能从诞生以来,理论和技术日益成熟,应用领域也不断扩大,可以设想,未来人工智能带来的科技产品,将会是人类智慧的“容器”。
人工智能是对人的意识、思维的信息过程的模拟。人工智能不是人的智能,但能像人那样思考、也可能超过人的智能。
人工智能是一门极富挑战性的科学,从事这项工作的人必须懂得计算机知识,心理学和哲学。人工智能是包括十分广泛的科学,它由不同的领域组成,如机器学习,计算机视觉等等,总的说来,人工智能研究的一个主要目标是使机器能够胜任一些通常需要人类智能才能完成的复杂工作。但不同的时代、不同的人对这种“复杂工作”的理解是不同的。

人工智能?

8. 揭开人工智能的面纱

  在我们周围每一个领域,无论产品是先进还是普通,似乎都能看到人工智能(AI)的影子。利用人工智能来为产品赋能,光是想想就已经让人心驰神往,因此您自然会相信这样的主张。然而,大部分的主张并没有说明人工智能的作用,也没有说明制造商凭什么可以信心十足地做出这样的主张。我内心属于工程师的那一面总是对物品的构建方法充满好奇。之所以如此,是因为我对“黑匣子”这个理念不感冒——这个理念认为我们不需要了解计算如何进行编程。 
     
    那么,就让我们一起来打开这个盒子,揭开人工智能的面纱看一看。   要想实现人工智能,您首先要满足两个要素:   (1)能够测量某些参数并且了解测量结果的含义;(2)学习能力。第一个要素涉及计量学,也称为计量科学研究。第二个要素称为机器学习(ML),它让系统能够辨别不同于预期结果的测量值,并且在不需要明确编程的情况下改变操作。 
     
     数据收集能力  
     
    计量学侧重于深入了解某种特定的测量。这种测量既可能是像电压、接地或温度测量一样简单而独特,也可能像飞行器控制面或复杂的制造装配线一样具有多模态功能。 
     
    •测量深度:无论是测量单个参数还是测量多个参数,测量精度决定了您能够达到哪种程度的可编程能力。例如,以 1/10 伏的精度测量 3 伏系统就不会像以 1/1000 伏的精度测量同一个系统那样有洞察力。 
     
     
    •数据馈送:测量数据只有在可用于数据馈送时才对算法有帮助。在上面的示例中,如果传感器能够以 1/1000 的精度进行测量,但受到数据总线的限制,其数据馈送输出只能精确到小数点后一位,那么额外的精度就不能为算法所用。 
     
    •多个数据馈送:在可能的情况下,测量的参数越多,做出的决策就越有效。举个例子,如果能够以 1/1000 的精度测量电压和温度,您就能够将温度变化与电压波动联系起来。 
     
     进入机器学习  
     
    机器学习会把来自多个源头的数据提供给用以模仿人类学习方式的算法,从而逐步提高算法的准确性。获得数据馈送后,您还需要三个基础模块才能实现 ML:解释数据的算法、具有响应式结果的预期结果表、反馈环。 
     
    •算法:一个机器学习系统的真正“智能”体现在它能够获取数据馈送输入,运行一组计算/指令,并解释输出。解释指的是它能够分辨输出计算是否在预期范围之内,然后根据该输出执行新命令。在前面的示例中,如果不仅电压测量结果远超预期范围,而且温度也高于标称值,那么算法可能会启动内部风扇。 
     
    •预期结果和响应式结果:以最简单的方式来解释的话,预期结果可以是数据馈送输入与一系列响应式命令组合而成的“查找”表。表格越全面,ML 就越成熟、越有价值。交互性更高的 ML 可以执行一步步变更,例如根据实时感知数据改变无人机的航向,从而避开障碍物,这一操作同时需要持续的感知和不断的调整。 
     
    •反馈环:最后一个要素是反馈环。它允许系统验证其操作是足够的还是需要进一步改进,并且能够帮助系统调整参数,从而提高未来的性能。 
     
    增添多个针对大型系统不同方面的 ML 功能,增加更多传感器数据,从而在更复杂的系统层面实现机器学习。先进的 ML 可以在遇到新的传感器输入组合时将其添加到“查找表”中,制定其它类型的响应式结果指令,并衡量执行的响应的充分度。这些就成为了自我调整算法,从数据中获取知识,从而预测结果。训练的算法越多,输出就越准确。 
     
     人工智能  
     
    既然拥有了可训练的算法,那么您就在很大程度上可以实现 AI 交付。您需要从一系列 ML 引擎中获得输出,然后将它们与充足的准则和迭代相结合,以便算法做出实时决策。当 AI 算法处理数据、 
     
    迭代、考虑新数据进入的迭代响应,以及使用组合来选择输出时,它就进入了决策状态。这个永无止境的循环促使 AI 不断学习并提高决策质量。整个过程既可能像电压和温度传感器回路一样非常简单,也可能像攻击型无人机的飞行控制系统一样复杂。 
     
     人工智能的 DNA 标记  
     
    如何预测 AI 算法的性能?就像了解人类一样,您可以通过 DNA 标记来了解 AI 算法。从最基础的层面来看,具有人工智能的机器能够仿真人类感知信息、处理信息和对信息做出反应的方式,并针对给定的条件修改工作流程,从而代替人类参与决策循环。从本质上讲,   您可以查看三个常见的 DNA 标记:  
    1.测量和仿真的效果:了解制造商的测量能力,了解他们是否拥有创建数字孪生环境所需的充足知识和经验。 
     
    2.算法、分析技术和洞察力:开发人员对信号核心特征的了解程度以及这种程度与预期响应的关系将决定预期结果“查找”表的深度。 
     
    3.工作流自动化知识:从系统层面上理解多次迭代的 ML 输出如何协同工作,从而优化预期结果。 
     
     有鉴于此,人工智能算法的质量与以下两个方面有关系:  
     
    1.深度——理解指定测量领域中测量结果的能力 
    2.广度——人们拥有的深度知识所涵盖的技术和标准的数量 
     
    这向我们指出一个事实——如果实施得当的话,人工智能并不是一种被过度炒作的新兴技术。相反,工程师可以借助它来管理复杂性呈指数级增长的新设计。 
     
    正如未来学家 Gray Scott 所言,“到 2035 年,人脑不可能也没有办法与人工智能机器相匹敌。”工程师们意识到了这一点,并且开始将 ML 和 AI 融入他们的系统。人工智能的诞生要归功于充满智慧且积极进取的工程师。他们了解测量科学,充分理解为开发人员创建数字孪生可能会得到的系统特性,并志在让工程走上新台阶。