首页 英语流利说level7-u2-p3文本

英语流利说level7-u2-p3文本

举报
开通vip

英语流利说level7-u2-p3文本.1Level7Unit2Part3Machineintelligencemakeshumanmoralsmoreimportant机器智能使人类道德更重要byZeynepTufekciSo,Istartedmyfirstjobasacomputerprogrammerinmyveryfirstyearofcollege--basically,asateenager.所以,我在大学一年级时就开始了我的第一份电脑程序员的工作,基本上是一个十几岁的孩子。SoonafterIstartedworking,writings...

英语流利说level7-u2-p3文本
.1Level7Unit2Part3Machineintelligencemakeshumanmoralsmoreimportant机器智能使人类道德更重要byZeynepTufekciSo,Istartedmyfirstjobasacomputerprogrammerinmyveryfirstyearofcollege--basically,asateenager.所以,我在大学一年级时就开始了我的第一份电脑程序员的工作,基本上是一个十几岁的孩子。SoonafterIstartedworking,writingsoftwareinacompany,amanagerwhoworkedatthecompanycamedowntowhereIwas,andhewhisperedtome,"CanhetellifI'mlying?"Therewasnobodyelseintheroom.我开始工作后不久,在一家公司写软件,一位在公司工作的经理来到我所在的地方,他低声对我说:“他能告诉我我在撒谎吗?”房间里没有其他人。"Canwhotellifyou'relying?Andwhyarewewhispering?"“谁能告诉我你在撒谎?我们为什么要窃窃私语?”Themanagerpointedatthecomputerintheroom."CanhetellifI'mlying?"Well,thatmanagerwashavinganaffairwiththereceptionist.经理指着房间里的电脑。“他能告诉我我在撒谎吗?”嗯,那个经理和接待员有暧昧关系。(Laughter)(笑声)AndIwasstillateenager.SoIwhisper-shoutedbacktohim,"Yes,thecomputercantellifyou'relying."我还是个十几岁的孩子。于是我小声地对他喊道:“是的,电脑能分辨出你在撒谎。”(Laughter)(笑声)Well,Ilaughed,butactually,thelaugh'sonme.Nowadays,therearecomputationalsystemsthatcansussoutemotionalstatesandevenlyingfromprocessinghumanfaces.Advertisersandevengovernmentsareveryinterested.嗯,我笑了,但事实上,我笑了。现在,有一些计算系统可以解决情绪状态,甚至可以从处理人脸上撒谎。广告商甚至政府都很感兴趣。IhadbecomeacomputerprogrammerbecauseIwasoneofthosekidscrazyaboutmathandscience.ButsomewherealongthelineI'dlearnedaboutnuclearweapons,andI'dgottenreallyconcernedwiththeethicsofscience.Iwastroubled.However,becauseoffamilycircumstances,Ialsoneededtostartworkingassoonaspossible.SoIthoughttomyself,hey,letmepickatechnicalfieldwhereIcangetajobeasilyandwhereIdon'thavetodealwithanytroublesomequestionsofethics.SoIpickedcomputers.我已经成为一名电脑程序员,因为我是一个对数学和科学着迷的孩子。但我在某个地方学到了核武器,我真的很关心科学的伦理学。我很烦恼。然而,由于家庭情况,我也需要尽快开始工作。因此,我想,嘿,让我选择一个技术领域,我可以轻松地找到一份工作,在那里我不需要处理任何棘手的道德问题。所以我选择了电脑。(Laughter)(笑声)Well,ha,ha,ha!Allthelaughsareonme.Nowadays,computerscientistsarebuildingplatformsthatcontrolwhatabillionpeopleseeeveryday.They'redevelopingcarsthatcoulddecidewhotorunover.They'reevenbuildingmachines,weapons,thatmightkillhumanbeingsinwar.It'sethicsallthewaydown.哈,哈,哈!所有的笑声都在我身上。如今,计算机科学家正在构建一个平台,控制着每天有十亿人看到的东西。他们正在开发可以决定谁来跑的汽车。他们甚至制造机器,武器,可能会在战争中杀死人类。这是道德的一路下滑。Machineintelligenceishere.We'renowusingcomputationtomakeallsortofdecisions,butalsonewkindsofdecisions.We'reaskingquestionstocomputationthathavenosinglerightanswers,thataresubjectiveandopen-endedandvalue-laden.机器智能在这里。我们现在使用计算来做所有的决定,但也有新的决定。我们问的问题是没有一个正确答案的计算,这是主观的,开放的和价值的。We'reaskingquestionslike,"Whoshouldthecompanyhire?""Whichupdatefromwhichfriendshouldyoubeshown?""Whichconvictismorelikelytoreoffend?""Whichnewsitemormovieshouldberecommendedtopeople?"我们在问这样的问题:“公司应该雇佣谁?”“你应该从哪个朋友那里得到更新?”“哪一个犯人更有可能重新犯罪?”“应该向人们推荐哪种新闻或电影?”Look,yes,we'vebeenusingcomputersforawhile,butthisisdifferent.Thisisahistoricaltwist,becausewecannotanchorcomputationforsuchsubjectivedecisionsthewaywecananchorcomputationforflyingairplanes,buildingbridges,goingtothemoon.Areairplanessafer?Didthebridgeswayandfall?There,wehaveagreed-upon,fairlyclearbenchmarks,andwehavelawsofnaturetoguideus.Wehavenosuchanchorsandbenchmarksfordecisionsinmessyhumanaffairs.看,是的,我们已经使用了一段时间的电脑,但这是不同的。这是一个历史的转折,因为我们不能锚定计算这样的主观决定的方式,我们可以锚定计算的飞行飞机,建造桥梁,去月球。飞机安全吗?这座桥摇晃了吗?在那里,我们已经达成一致,相当明确的基准,我们有自然法则来指导我们。在混乱的人类事务中,我们没有这样的锚定和基准。Tomakethingsmorecomplicated,oursoftwareisgettingmorepowerful,butit'salsogettinglesstransparentandmorecomplex.Recently,inthepastdecade,complexalgorithmshavemadegreatstrides.Theycanrecognizehumanfaces.Theycandecipherhandwriting.Theycandetectcreditcardfraudandblockspamandtheycantranslatebetweenlanguages.Theycandetecttumorsinmedicalimaging.TheycanbeathumansinchessandGo.为了使事情变得更复杂,我们的软件变得越来越强大,但它也变得越来越不透明,越来越复杂。最近,在过去的十年中,复杂的算法取得了很大的进步。他们可以识别人脸。他们能辨认笔迹。他们可以检测信用卡诈骗和阻止垃圾,他们可以翻译之间的语言。他们可以在医学影像中发现肿瘤。他们可以在国际象棋中击败人类。Muchofthisprogresscomesfromamethodcalled"machinelearning."Machinelearningisdifferentthantraditionalprogramming,whereyougivethecomputerdetailed,exact,painstakinginstructions.It'smorelikeyoutakethesystemandyoufeeditlotsofdata,includingunstructureddata,likethekindwegenerateinourdigitallives.Andthesystemlearnsbychurningthroughthisdata.Andalso,crucially,thesesystemsdon'toperateunderasingle-answerlogic.Theydon'tproduceasimpleanswer;it'smoreprobabilistic:"Thisoneisprobablymorelikewhatyou'relookingfor."这种进步很大程度上来自一种叫做“机器学习”的方法。机器学习不同于传统编程,在那里你给计算机详细、精确、细致的指令。它更像是你采取的系统,你喂它大量的数据,包括非结构化数据,像我们在我们的数字生活中产生的那种。系统通过这些数据来学习。而且,关键的是,这些系统不在一个单一的答案逻辑下运作。他们并没有给出一个简单的答案,而是更多的概率:“这一个可能更像你正在寻找的。”Now,theupsideis:thismethodisreallypowerful.TheheadofGoogle'sAIsystemscalledit,"theunreasonableeffectivenessofdata."Thedownsideis,wedon'treallyunderstandwhatthesystemlearned.Infact,that'sitspower.Thisislesslikegivinginstructionstoacomputer;it'smoreliketrainingapuppy-machine-creaturewedon'treallyunderstandorcontrol.Sothisisourproblem.It'saproblemwhenthisartificialintelligencesystemgetsthingswrong.It'salsoaproblemwhenitgetsthingsright,becausewedon'tevenknowwhichiswhichwhenit'sasubjectiveproblem.Wedon'tknowwhatthisthingisthinking.现在,好处是:这种方法真的很强大。谷歌的人工智能系统的负责人称之为“数据的不合理有效性”。缺点是,我们并不真正理解系统所学到的东西。事实上,这就是它的力量。这不像是给电脑指令,更像是训练puppy-machine-creature我们并不真正理解或控制。这就是我们的问题。当这种人工智能系统出错时,这是个问题。这也是一个问题,当它得到正确的东西,因为我们甚至不知道这是什么时候,这是一个主观的问题。我们不知道这是什么想法。So,considerahiringalgorithm--asystemusedtohirepeople,usingmachine-learningsystems.Suchasystemwouldhavebeentrainedonpreviousemployees'dataandinstructedtofindandhirepeopleliketheexistinghighperformersinthecompany.Soundsgood.Ionceattendedaconferencethatbroughttogetherhumanresourcesmanagersandexecutives,high-levelpeople,usingsuchsystemsinhiring.Theyweresuperexcited.Theythoughtthatthiswouldmakehiringmoreobjective,lessbiased,andgivewomenandminoritiesabettershotagainstbiasedhumanmanagers.因此,考虑一种雇佣算法——一种用来雇佣人的系统,使用机器学习系统。这样的系统将被培训在以前的员工的数据,并指示找到和雇用的人,如现有的高绩效的公司。听起来不错。我曾经参加过一个会议,汇集了人力资源经理和高级管理人员,高层人员,在招聘中使用这种系统。他们非常兴奋。他们认为这会使招聘更加客观,减少偏见,给女性和少数群体一个更好的机会来对付有偏见的人类管理者。Andlook--humanhiringisbiased.Iknow.Imean,inoneofmyearlyjobsasaprogrammer,myimmediatemanagerwouldsometimescomedowntowhereIwasreallyearlyinthemorningorreallylateintheafternoon,andshe'dsay,"Zeynep,let'sgotolunch!"I'dbepuzzledbytheweirdtiming.It's4pm.Lunch?Iwasbroke,sofreelunch.Ialwayswent.Ilaterrealizedwhatwashappening.Myimmediatemanagershadnotconfessedtotheirhigher-upsthattheprogrammertheyhiredforaseriousjobwasateengirlwhoworejeansandsneakerstowork.Iwasdoingagoodjob,Ijustlookedwrongandwasthewrongageandgender.看,人的雇佣是有偏见的。我知道。我的意思是,在我作为一名程序员的早期工作中,我的直属经理有时会到我真正早到的地方,或者是在下午很晚的时候,她会说:“Zeynep,我们去吃午饭吧!”我会被奇怪的时间所迷惑。下午四点。午餐?我破产了,所以免费的午餐。我总是去。后来我意识到发生了什么。我的直属经理们还没有承认他们的上司,他们雇用的一个严肃的工作是一个十几岁的女孩穿着牛仔裤和运动鞋上班。我做得很好,我只是看起来错了,是错误的年龄和性别。Sohiringinagender-andrace-blindwaycertainlysoundsgoodtome.Butwiththesesystems,itismorecomplicated,andhere'swhy:Currently,computationalsystemscaninferallsortsofthingsaboutyoufromyourdigitalcrumbs,evenifyouhavenotdisclosedthosethings.Theycaninferyoursexualorientation,yourpersonalitytraits,yourpoliticalleanings.Theyhavepredictivepowerwithhighlevelsofaccuracy.Remember--forthingsyouhaven'tevendisclosed.Thisisinference.因此,在一个性别和种族的盲目的方式雇用听起来对我很好。但是,随着这些系统,它是更复杂的,这就是为什么:目前,计算系统可以推断出各种各样的事情,你从你的数字面包屑,即使你没有透露这些东西。他们可以推断出你的性取向,你的个性特征,你的政治倾向。他们具有高精度的预测能力。记住--对于你还没有透露的事情。这是推理。Ihaveafriendwhodevelopedsuchcomputationalsystemstopredictthelikelihoodofclinicalorpostpartumdepressionfromsocialmediadata.Theresultsareimpressive.Hersystemcanpredictthelikelihoodofdepressionmonthsbeforetheonsetofanysymptoms--monthsbefore.Nosymptoms,there'sprediction.Shehopesitwillbeusedforearlyintervention.Great!Butnowputthisinthecontextofhiring.我有一个朋友开发了这样的计算系统,从社会媒体数据预测临床或产后抑郁症的可能性。结果令人印象深刻。她的系统可以预测几个月前出现任何症状之前的抑郁的可能性。没有症状,有预测她希望这将被用于早期干预。太棒了!但现在把这放在招聘的背景下。Soatthishumanresourcesmanagersconference,Iapproachedahigh-levelmanagerinaverylargecompany,andIsaidtoher,"Look,whatif,unbeknownsttoyou,yoursystemisweedingoutpeoplewithhighfuturelikelihoodofdepression?They'renotdepressednow,justmaybeinthefuture,morelikely.Whatifit'sweedingoutwomenmorelikelytobepregnantinthenextyearortwobutaren'tpregnantnow?Whatifit'shiringaggressivepeoplebecausethat'syourworkplaceculture?"Youcan'ttellthisbylookingatgenderbreakdowns.Thosemaybebalanced.Andsincethisismachinelearning,nottraditionalcoding,thereisnovariabletherelabeled"higherriskofdepression,""higherriskofpregnancy,""aggressiveguyscale."Notonlydoyounotknowwhatyoursystemisselectingon,youdon'tevenknowwheretobegintolook.It'sablackbox.Ithaspredictivepower,butyoudon'tunderstandit.所以在这次人力资源经理会议上,我找了一家非常大的公司的高级经理,我对她说:“看,如果你不知道,你的系统正在淘汰那些未来可能有抑郁症的人呢?他们现在不沮丧,只是可能在未来,更有可能。如果在接下来的一年或两年淘汰妇女更可能怀孕,但现在又没有怀孕怎么办?如果它雇佣有侵略性的人,因为那是你的工作场所文化?”你不能通过看性别问题来判断。这些可能是平衡的。而且由于这是机器学习,而不是传统的编码,没有可变的标签“高风险的抑郁症,”“更高的风险怀孕,”“侵略性的家伙规模。”不仅你不知道你的系统在选择什么,你甚至不知道从哪里开始看。它是一个黑匣子。它具有预测力,但你不理解它。"Whatsafeguards,"Iasked,"doyouhavetomakesurethatyourblackboxisn'tdoingsomethingshady?"ShelookedatmeasifIhadjuststeppedon10puppytails.“什么保障措施,”我问,“你必须确保你的黑匣子没有做什么可疑的事情?”她看着我,好像我刚刚踩了10条小狗的尾巴。(Laughter)(笑声)Shestaredatmeandshesaid,"Idon'twanttohearanotherwordaboutthis."Andsheturnedaroundandwalkedaway.Mindyou--shewasn'trude.Itwasclearly:whatIdon'tknowisn'tmyproblem,goaway,deathstare.她盯着我,她说:“我不想再听到这个消息了。”她转身走开了。注意你--她并不粗鲁。很明显:我不知道的不是我的问题,走开,死亡凝视。(Laughter)(笑声)Look,suchasystemmayevenbelessbiasedthanhumanmanagersinsomeways.Anditcouldmakemonetarysense.Butitcouldalsoleadtoasteadybutstealthyshuttingoutofthejobmarketofpeoplewithhigherriskofdepression.Isthisthekindofsocietywewanttobuild,withoutevenknowingwe'vedonethis,becauseweturneddecision-makingtomachineswedon'ttotallyunderstand?看,这样的系统在某些方面甚至可能比人类管理者有更少的偏见。这可能会使货币变得有意义。但这也可能导致一个稳定但却悄无声息的退出就业市场的人,有更高的忧郁症风险。这是我们想要建立的社会,甚至不知道我们已经这样做了,因为我们把决策变成了我们不完全理解的机器?Anotherproblemisthis:thesesystemsareoftentrainedondatageneratedbyouractions,humanimprints.Well,theycouldjustbereflectingourbiases,andthesesystemscouldbepickinguponourbiasesandamplifyingthemandshowingthembacktous,whilewe'retellingourselves,"We'rejustdoingobjective,neutralcomputation."另一个问题是:这些系统通常是由我们的行为、人类印记所产生的数据训练的。嗯,他们可能只是反映了我们的偏见,这些系统可能会发现我们的偏见,放大他们,并让他们回到我们,而我们告诉自己,“我们只是做客观的,中立的计算。”ResearchersfoundthatonGoogle,womenarelesslikelythanmentobeshownjobadsforhigh-payingjobs.AndsearchingforAfrican-Americannamesismorelikelytobringupadssuggestingcriminalhistory,evenwhenthereisnone.Suchhiddenbiasesandblack-boxalgorithmsthatresearchersuncoversometimesbutsometimeswedon'tknow,canhavelife-alteringconsequences.研究人员发现,在谷歌上,女性比男性更不可能在高薪职位上招聘广告。而寻找非裔美国人的名字更可能带来犯罪历史的广告,即使没有。研究人员有时会发现这种隐藏的偏见和黑箱算法,但有时我们不知道,会有改变生活的结果。InWisconsin,adefendantwassentencedtosixyearsinprisonforevadingthepolice.Youmaynotknowthis,butalgorithmsareincreasinglyusedinparoleandsentencingdecisions.Hewantedtoknow:Howisthisscorecalculated?It'sacommercialblackbox.Thecompanyrefusedtohaveitsalgorithmbechallengedinopencourt.ButProPublica,aninvestigativenonprofit,auditedthatveryalgorithmwithwhatpublicdatatheycouldfind,andfoundthatitsoutcomeswerebiasedanditspredictivepowerwasdismal,barelybetterthanchance,anditwaswronglylabelingblackdefendantsasfuturecriminalsattwicetherateofwhitedefendants.在威斯康星州,一名被告因躲避警察被判六年监禁。你可能不知道这一点,但算法越来越多地用于假释和判决决定。他想知道:这是怎么计算的?它是一个商业黑匣子。该公司拒绝在公开法庭上对其算法提出质疑。但是ProPublica,一个调查性的非营利组织,对他们所能发现的公共数据进行了审计,发现其结果是有偏见的,其预测能力是令人沮丧的,几乎没有机会,并且错误地把黑人被告作为未来的犯罪分子,是白人被告的两倍。So,considerthiscase:ThiswomanwaslatepickinguphergodsisterfromaschoolinBrowardCounty,Florida,runningdownthestreetwithafriendofhers.Theyspottedanunlockedkid'sbikeandascooteronaporchandfoolishlyjumpedonit.Astheywerespeedingoff,awomancameoutandsaid,"Hey!That'smykid'sbike!"Theydroppedit,theywalkedaway,buttheywerearrested.所以,考虑一下这个案例:这个女人在佛罗里达州布劳沃德县的一所学校接她的教母,她和她的一个朋友在街上跑来跑去。他们发现一个未上锁的孩子的自行车和一辆滑板车在门廊和愚蠢地跳上它。当他们超速行驶时,一个女人跑出来说:“嘿!那是我孩子的自行车!”他们把它扔了,他们走开了,但他们被逮捕了。Shewaswrong,shewasfoolish,butshewasalsojust18.Shehadacoupleofjuvenilemisdemeanors.Meanwhile,thatmanhadbeenarrestedforshopliftinginHomeDepot--85dollars'worthofstuff,asimilarpettycrime.Buthehadtwopriorarmedrobberyconvictions.Butthealgorithmscoredherashighrisk,andnothim.Twoyearslater,ProPublicafoundthatshehadnotreoffended.Itwasjusthardtogetajobforherwithherrecord.He,ontheotherhand,didreoffendandisnowservinganeight-yearprisontermforalatercrime.Clearly,weneedtoauditourblackboxesandnothavethemhavethiskindofuncheckedpower.她错了,她很愚蠢,但她也只有18岁。她有过两次未成年的轻罪。与此同时,那名男子因在家得宝商店行窃被逮捕——价值85美元的东西,类似的轻微犯罪。但他有两次持枪抢劫的前科。但该算法的得分高风险,而不是他。两年后,propublica发现她没有再生气。她很难找到一份有 记录 混凝土 养护记录下载土方回填监理旁站记录免费下载集备记录下载集备记录下载集备记录下载 的工作。另一方面,他又重新犯罪,现在为以后的罪行服刑8年。显然,我们需要审计我们的黑匣子,而不是让他们拥有这种不受约束的权力。(Applause)(掌声)Auditsaregreatandimportant,buttheydon'tsolveallourproblems.TakeFacebook'spowerfulnewsfeedalgorithm--youknow,theonethatrankseverythinganddecideswhattoshowyoufromallthefriendsandpagesyoufollow.Shouldyoubeshownanotherbabypicture?审计是伟大而重要的,但它们并不能解决我们所有的问题。采取Facebook的强大的新闻feed算法-你知道,一个排名一切,并决定什么显示你从所有的朋友和网页,你跟随。你应该再给我看一婴儿照片吗?(Laughter)(笑声)Asullennotefromanacquaintance?Animportantbutdifficultnewsitem?There'snorightanswer.Facebookoptimizesforengagementonthesite:likes,shares,comments.一个熟人的闷闷不乐的便条?一个重要但困难的新闻?没有正确的答案。Facebook优化了对的参与:喜欢,分享,评论。InAugustof2014,protestsbrokeoutinFerguson,Missouri,afterthekillingofanAfrican-Americanteenagerbyawhitepoliceofficer,undermurkycircumstances.ThenewsoftheprotestswasallovermyalgorithmicallyunfilteredTwitterfeed,butnowhereonmyFacebook.WasitmyFacebookfriends?IdisabledFacebook'salgorithm,whichishardbecauseFacebookkeepswantingtomakeyoucomeunderthealgorithm'scontrol,andsawthatmyfriendsweretalkingaboutit.It'sjustthatthealgorithmwasn'tshowingittome.Iresearchedthisandfoundthiswasawidespreadproblem.2014年8月,在密里州的弗格森,在一名白人警官在黑暗的环境下杀害一名非洲裔美国少年后,发生了抗议活动。抗议的消息充斥了我的算法未过滤的Twitterfeed,但在我的Facebook上却没有。是我的Facebook朋友吗?我禁用了Facebook的算法,这很难,因为Facebook一直想让你在算法的控制下,看到我的朋友们在谈论它。只是算法没有显示给我看。我研究了这一点,发现这是一个普遍的问题。ThestoryofFergusonwasn'talgorithm-friendly.It'snot"likable."Who'sgoingtoclickon"like?"It'snoteveneasytocommenton.Withoutlikesandcomments,thealgorithmwaslikelyshowingittoevenfewerpeople,sowedidn'tgettoseethis.Instead,thatweek,Facebook'salgorithmhighlightedthis,whichistheALSIceBucketChallenge.Worthycause;dumpicewater,donatetocharity,fine.Butitwassuperalgorithm-friendly.Themachinemadethisdecisionforus.Averyimportantbutdifficultconversationmighthavebeensmothered,hadFacebookbeentheonlychannel.弗格森的故事不太友好。这不是“可爱”。谁会点击“喜欢”?这甚至不容易评论。没有喜欢和评论,算法可能会显示它更少的人,所以我们没有看到这一点。相反,在那个星期,Facebook的算法突出了这一点,这是ALS冰桶挑战。有价值的事业;倾倒冰水,捐给慈善机构,罚款。但它是超级算法友好。机器为我们做了这个决定。一个非常重要但困难的谈话可能被扼杀了,Facebook是唯一的渠道。Now,finally,thesesystemscanalsobewronginwaysthatdon'tresemblehumansystems.DoyouguysrememberWatson,IBM'smachine-intelligencesystemthatwipedthefloorwithhumancontestantsonJeopardy?Itwasagreatplayer.Butthen,forFinalJeopardy,Watsonwasaskedthisquestion:"ItslargestairportisnamedforaWorldWarIIhero,itssecond-largestforaWorldWarIIbattle."现在,最后,这些系统也可能是错误的方式,不象人类系统。你们还记得Watson,IBM的机器智能系统吗?这是一个伟大的球员。但是,最后的危险,沃森被问到这个问题:“它最大的机场被命名为一个二战英雄,它的第二次世界大战第二次战斗。”(HumsFinalJeopardymusic)(人类最后的危险音乐)Chicago.Thetwohumansgotitright.Watson,ontheotherhand,answered"Toronto"--foraUScitycategory!Theimpressivesystemalsomadeanerrorthatahumanwouldnevermake,asecond-graderwouldn'tmake.芝加哥。这两个人是对的。华生,另一方面,回答“多伦多”-为美国城市类别!令人印象深刻的系统也犯了一个错误,一个人类永远不会做出,一个二年级学生不会作出。Ourmachineintelligencecanfailinwaysthatdon'tfiterrorpatternsofhumans,inwayswewon'texpectandbepreparedfor.It'dbelousynottogetajoboneisqualifiedfor,butitwouldtriplesuckifitwasbecauseofstackoverflowinsomesubroutine.我们的机器智能会以不符合人类错误模式的方式失败,以我们无法预料的方式来准备。如果没有一份工作是合格的,那就太糟糕了,但如果是因为某些子程序中的堆栈溢出,那么它将是三倍的。(Laughter)(笑声)InMayof2010,aflashcrashonWallStreetfueledbyafeedbackloopinWallStreet's"sell"algorithmwipedatrilliondollarsofvaluein36minutes.Idon'tevenwanttothinkwhat"error"meansinthecontextoflethalautonomousweapons.2010年5月,华尔街“卖出”算法的反馈回路引发的华尔街闪电崩盘,在36分钟抹去了1万亿美元的价值。我甚至不想在致命的自主武器的背景下思考“错误”的含义。Soyes,humanshavealwaysmadebiases.Decisionmakersandgatekeepers,incourts,innews,inwar...theymakemistakes;butthat'sexactlymypoint.Wecannotescapethesedifficultquestions.Wecannotoutsourceourresponsibilitiestomachines.是的,人类总是有偏见。决策者和看门人,在法庭上,在新闻里,在战争中……他们犯了错误,但这正是我的观点。我们无法逃避这些难题。我们不能把我们的责任外包给机器。(Applause)(掌声)Artificialintelligencedoesnotgiveusa"Getoutofethicsfree"card.人工智能并没有给我们一个“摆脱道德自由”的卡片。DatascientistFredBenensoncallsthismath-washing.Weneedtheopposite.Weneedtocultivatealgorithmsuspicion,scrutinyandinvestigation.Weneedtomakesurewehavealgorithmicaccountability,auditingandmeaningfultransparency.Weneedtoacceptthatbringingmathandcomputationtomessy,value-ladenhumanaffairsdoesnotbringobjectivity;rather,thecomplexityofhumanaffairsinvadesthealgorithms.Yes,wecanandweshouldusecomputationtohelpusmakebetterdecisions.Butwehavetoownuptoourmoralresponsibilitytojudgment,andusealgorithmswithinthatframework,notasameanstoabdicateandoutsourceourresponsibilitiestooneanotherashumantohuman.数据科学家弗雷德本尼森称这是数学清洗。我们需要相反的东西。我们需要培养算法的怀疑、审查和调查。我们需要确保我们有算法问责、审计和有意义的透明度。我们需要承认,把数学和计算带入混乱、充满价值的人类事务并不会带来客观性;相反,人类事务的复杂性会侵入算法。是的,我们可以并且我们应该使用计算来帮助我们做出更好的决定。但我们必须承认我们的道德责任,并在这个框架使用算法,而不是作为一种手段来放弃和外包我们的责任,作为人类对人类的责任。Machineintelligenceishere.Thatmeanswemustholdonevertightertohumanvaluesandhumanethics.机器智能在这里。这意味着我们必须更严格地坚持人类价值观和人类伦理。Thankyou.。(Applause)(掌声)...wd.
本文档为【英语流利说level7-u2-p3文本】,请使用软件OFFICE或WPS软件打开。作品中的文字与图均可以修改和编辑, 图片更改请在作品中右键图片并更换,文字修改请直接点击文字进行修改,也可以新增和删除文档中的内容。
该文档来自用户分享,如有侵权行为请发邮件ishare@vip.sina.com联系网站客服,我们会及时删除。
[版权声明] 本站所有资料为用户分享产生,若发现您的权利被侵害,请联系客服邮件isharekefu@iask.cn,我们尽快处理。
本作品所展示的图片、画像、字体、音乐的版权可能需版权方额外授权,请谨慎使用。
网站提供的党政主题相关内容(国旗、国徽、党徽..)目的在于配合国家政策宣传,仅限个人学习分享使用,禁止用于任何广告和商用目的。
下载需要: ¥17.6 已有0 人下载
最新资料
资料动态
专题动态
个人认证用户
pyaiw
擅长施工管理及辅助设计,并对施工技术、质量与安全的深入研究
格式:doc
大小:70KB
软件:Word
页数:0
分类:教育学
上传时间:2021-03-05
浏览量:58