Dok je let 447 „Er Fransa" padao ka Atlantskom okeanu brzinom od skoro 300 kilometara na sat (186 milja na sat), pilot Pjer-Sedrik Bonin se borio sa komandama.
On i njegova posada preuzeli su kontrolu nakon što se autopilot iznenada sam isključio, očigledno zbog nakupljanja leda na avionu. Bila je to situacija koja je zahtevala ručnu intervenciju.
Piloti, koji nisu bili upoznati sa ovim scenarijem, borili su se da stabilizuju avion.
Zbunjujuće poruke i alarmi iz računara aviona bombardovali su ih i sugerisali da letelica nije stala, a zapravo jeste.
Boninove poslednje reči, zabeležene na snimaču leta, bile su: „Srušićemo se - ovo ne može biti istina. Ali šta se dešava?"
Svih 228 putnika i članova posade poginulo je tog dana, 1. juna 2009 godine.
- Zašto se Japan ne plaši robota
- Za pet godina roboti će od ljudi preuzeti polovinu poslova
- Da li roboti treba da izgledaju kao ljudi
Kada se dogode ovakve nesreće, u kojima učestvuju ljudi i mašine, obično postoji više faktora ili uzroka.
Ali analitičari su delimično krivili za tragediju leta 447 preterano oslanjanje ili poverenje u mašine.
Oni su ukazali na očekivanje letačke posade da će autopilot ostati uključen, a da će informacioni sistemi aviona pružiti tačne informacije.
To je daleko od jedinog incidenta u kojem je preterano oslanjanje na tehnologiju dovelo do smrtnih slučajeva.
To je dobro proučen fenomen poznat kao pristrasnost automatizacije, koji ponekad takođe dovodi do opuštanja zbog automatizacije, gde su ljudi manje sposobni da uoče kvarove kada računar rukovodi situacijom.
Ali ono što je možda iznenađujuće je da je naša sklonost da „prekomerno verujemo" mašineriji možda direktno pod uticajem miliona godina evolucije.
„Prekomerno poverenje u tehnologiju je greška zapanjujućih razmera", piše Patriša Hardre sa Univerziteta u Oklahomi u poglavlju knjige o tome zašto ponekad previše verujemo u mašine.
Ona tvrdi da ljudi generalno nemaju sposobnost da procene koliko je određena tehnologija pouzdana.
Ovo zapravo može ići u oba smera.
Možemo odbaciti pomoć računara u situacijama kada bi nam to koristilo - ili slepo verovati takvom uređaju, samo da bi on na kraju štetio nama ili našim životima. ili našim sredstvima za život.
Ponašanje jednog od naših najbližih rođaka, šimpanze, može sadržati trag o tome zašto smo tako loši u proceni pouzdanosti mašina.
To bi moglo biti zato što smo pripremljeni da procenjujemo druge pripadnike naše vrste.
U nedavnom eksperimentu, istraživači su postavili mašinu u kojoj su šimpanze u utočištu u Keniji mogle da vuku uže da bi dobile nagradu za hranu.
Jedno uže je nudilo osnovnu nagradu za hranu - jedan komad banane.
Ali, predstavljena im je i druga opcija - veća nagrada od dva komada banane i parče jabuke, koje bi mogla da izbaci mašina ili druga šimpanza.
Ponekad je to bila mašina na drugom kraju užeta, drugi put još jedna šimpanza, ali nikada oboje.
Međutim, ponekad mašina ne bi isporučila nagradu, a ponekad bi druga šimpanza odlučila da ne podeli.
Dakle, iako je postojala potencijalno veća nagrada, bio je manje siguran izbor da se povuče drugo uže.
Učesnik šimpanza je tako bio suočen ili sa društvenim ili nedruštvenim uslovom.
Morali bi da veruju ili mašini ili drugoj šimpanzi da bi imali šansu za veću nagradu za hranu.
Studija je pokazala da, kada je kolega šimpanza odlučivao o neizvesnoj opciji, primati su manje bili skloni tome.
Odbili su da se uključe u društvenim ispitivanjima 12 odsto vremena, ali su ovu averziju pokazali u samo četiri odsto vremena u nedruštvenim ispitivanjima gde je mašina upravljala nagradom. Drugim rečima, imali su veće poverenje u mašinu.
„Bili su mnogo neodlučniji... kada je partner bila druga šimpanza", kaže Lu Haz sa Instituta Maks Plank za ljudski razvoj, koja je dizajnirala i vodila eksperiment sa svojim kolegama.
To je jedna od samo nekoliko studija koje otkrivaju da društveni rizik igra veliku ulogu u tome kako se šimpanze i ljudi kreću svetom.
To se zove „odbojnost prema izdaji", kaže Hazova:
„Strah da vas prevari drugi čovek (ili šimpanza), za koji se smatra da izaziva jače emocije".
- Devojke iz Avganistana prave respiratore od delova automobila
- Paralizovani čovek i egzoskelet koji čita misli
- Seks roboti su „rastuća psihološka i moralna pretnja”
Ona ovo upoređuje sa stavljanjem novca u mašinu za prodaju koja onda ne izbaci bezalkoholno piće koje ste tražili.
To bi, bez sumnje, moglo izazvati iritaciju, ali zamislite kako biste se osećali kada bi vam barmen uzeo novac, a zatim nastavio da pije vašu koka kolu pred vama.
Verovatno biste bili ljuti.
Naravno, mašina za prodaju nije donela odluku da vas prevari, samo nije uspela da isporuči, dok je barmen odlučio da popije vašu narudžbu uprkos tome što je znao kako biste se osećali.
Međutim, istraživački tim se tu nije zaustavio.
Nastavili su sa izvođenjem još jednog eksperimenta koji je uključivao šimpanze koje su već shvatile kolika je verovatnoća da će dobiti bolju nagradu za hranu kada odaberu neizvesnu opciju, zahvaljujući učešću u prvom eksperimentu.
Neizvesna opcija, istina, više nije bila potpuno neizvesna - šimpanze su sada imale osećaj kakav rizik preuzimaju.
I tada se pojavilo iznenađenje.
Šimpanze su prestale da prave razliku između društvenih i nedruštvenih opcija - činilo se da su prestali da više veruju mašini nego kolegama šimpanzama.
„Zato mislimo da je to uzbudljivo otkriće, da oni prave razliku između društvenog i nedruštvenog sveta u slučajevima gde još postoji mnogo neizvesnosti", kaže Hazova.
Ima smisla kada razmislite o tome koliko je važno da primati pregovaraju o svom društvenom okruženju, kaže Darbi Proktor, psihološkinja sa Tehnološkog instituta Floride.
„Sa mašinom, nema budućih implikacija", objašnjava ona.
„Nemate taj dodatni potencijalni društveni trošak."
Na kraju krajeva, šimpanze u ovim eksperimentima često moraju da odu i provode vreme sa drugim učesnicima kada se ogled završi - svako nezadovoljstvo izazvano učešćem može imati dalje posledice po njihove odnose.
Proktor i kolege su ranije sproveli slične testove i takođe su otkrili da šimpanze imaju veću verovatnoću da veruju objektima u potrazi za nagradama za hranu u odnosu na druge šimpanze.
Proktor napominje da, kada je jednog od primata naizgled izneverila druga šimpanza koja nije uspela da dodeli obilnu nagradu za hranu, potištena šimpanza je pokazala svoja osećanja tako što je pljunula vodu na partnera.
„Uobičajeni prikaz nezadovoljstva", kaže Proktorova.
Proktorova postavlja pitanje da li su šimpanze u ovim eksperimentima zaista više verovale mašinama.
Takođe bi se moglo opisati kao da pojedinci jednostavno imaju prigušenije reakcije na loš dogovor kada socijalni partner nije uključen.
„Nije da imamo poverenja da će nas mašina valjano isplatiti, možda je ne vidimo kao emocionalno istaknutu, pa smo možda skloniji da se kockamo ili rizikujemo sa ovim neživim predmetom", ona pretpostavlja.
Ali u svakom slučaju, čini se da je evolucija uticala na spremnost primata da se angažuju sa neizvesnošću, na osnovu toga da li osećamo da preuzimamo društveni rizik ili ne.
Evolucija nas nije baš pripremila na činjenicu da može biti prilično skupo da nas izda mašina, tvrdi Frančeska de Petriljo sa Instituta za napredne studije u Tuluzu, koja proučava primate.
Milionima godina nije bilo potrebe da se razvija sposobnost da se mašine procenjuju tako pažljivo kao što procenjujemo pripadnike iste vrste.
Ali danas, kada tehnologija može imati ogroman uticaj na živote ljudi, ta potreba verovatno postoji.
Ovde su uključeni i drugi faktori.
Osim evolucije, na našu spremnost da verujemo tehnologiji takođe utiče lično znanje o mašini ili uređaju i kulturološka očekivanja.
- Kako je Nišlija osmislio robota pastira
- I bube sad mogu da snimaju
- Paralizovani čovek i egzoskelet koji čita misli
Studija iz 2019. pokazala je da je u proseku 29 odsto veća verovatnoća da će ljudi odati podatke o svojoj kreditnoj kartici tokom tekstualnog ćaskanja ako misle da razgovaraju sa računarom u odnosu na drugo ljudsko biće.
Istraživači su otkrili da je ovaj efekat bio još izraženiji među onima koji su ranije očekivali da su mašine sigurnije ili pouzdanije od ljudi.
A opet, ponekad ljudi prijavljuju snažnu averziju prema tehnologiji kojoj veruju.
Mnoga istraživanja su pokazala da se ljudima često ne sviđa ideja da samostalno voze automobile ili da prepuste radne obaveze mašinama.
Postoji mnogo razloga zbog kojih sumnje u novu tehnologiju mogu uzeti maha.
Ljudi bi se mogli plašiti da će izgubiti deo svog identiteta ako mašina preuzme vlast.
Ili će jednostavno biti skeptični da će računar pristupiti određenim zadacima sa potrebnim oprezom i spretnošću.
Kada ste videli stotinu video snimaka robota koji padaju, ili iskusili tvrdoglavi računar koji odbija da funkcioniše ispravno, to nije nužno iznenađujuće.
Među onima koji su proučavali šta može uticati na spremnost pojedinca da veruje određenom tehnološkom sistemu je Filip Kulms, socijalni psiholog sa Univerziteta Bilefeld u Nemačkoj.
On i njegov kolega osmislili su slagalicu u stilu tetrisa u kojoj su učesnici sarađivali sa kompjuterskim partnerom koji je takođe imao kontrolu nad nekim delovima.
Kada je računar dobro igrao igru i omogućio ljudskom igraču pristup delovima visoke vrednosti koji su im doneli dodatne poene, učesnici su verovatnije prijavili da veruju kompjuterskom igraču, a takođe i verovatnije da će razmenjivati delove slagalice sa njim u zajedničkom naporu, što pokazuje da su to poverenje izrazili i u igri.
To je poverenje formirano od strane mehaničara, ako hoćete.
„Na naše iznenađenje, ovaj veoma ograničen skup varijabli kojima smo mogli da manipulišemo je očigledno bio dovoljan", kaže Kulms.
Ako prihvatimo da su ljudi generalno loše opremljeni da procene verodostojnost mašina jer smo, sa evolucione tačke gledišta, pripremljeni da sudimo o pouzdanosti na osnovu društvenih znakova, onda ovo ima savršenog smisla.
Takođe se poklapa sa drugim istraživanjima koja sugerišu da će kockari više kockati kada igraju na slot mašinama koje su dizajnirane da prikazuju svojstva nalik ljudima.
Zoološki vrt u Japanu pokušao je da nauči šimpanze da koriste prodajnu mašinu tako što će posmatrati decu - takve interakcije sa tehnologijom su u potpunosti izgrađene na poverenju.
Drugim rečima, nismo samo loši u odmeravanju verodostojnosti mašine, već nas lako zavedu i mehanički predmeti kada počnu da se ponašaju pomalo kao društveni partner kome su naši najbolji interesi pri srcu.
Dakle, za razliku od osobe koja se opekla sa kompjuterima i ne veruje više nijednom, pojedinac koji je naučio da veruje u određene sisteme - kao što su autopiloti aviona - može se mučiti da shvati kako bi taj sistem mogao pogrešiti, čak i kada jeste.
De Petriljo napominje da je iskusila osećaj poverenja u računare kada je komunicirala sa pomoćnicima koji se aktiviraju glasom kao što su Eplov Siri ili Amazonova Aleksa.
„Pretpostavljam da se ponašaju u mom najboljem interesu, tako da ne moram da ih ispitujem", kaže ona.
Sve dok izgledaju kompetentni i razumno topli, sugeriše Kulmsova studija, to će i dalje biti slučaj, smatraju de Petriljo i mnogi drugi.
Kulm ističe da je zbog toga toliko važno za dizajnere tehnologije da se postaraju da njihovi sistemi budu etički i njihova funkcionalnost transparentna.
Velika ironija svega ovoga je u tome što iza naizgled poverljive mašine može stajati zlonamerni čovek sa podlim namerama.
Neopravdano poverenje u neispravnu mašinu je dovoljno opasno, bez obzira na onu koja je dizajnirana da obmane.
„Da preuzimamo istu vrstu rizika sa čovekom, bili bismo mnogo bolje prilagođeni mogućim negativnim ishodima", kaže Proktor.
Ona i Hazova se slažu da je potrebno više rada da bi se otkrilo koliko šimpanze u njihovim studijama iskreno veruju mašinama i u kojoj meri to otkriva istine o ljudskom ponašanju.
Ali ovde postoji nagoveštaj da je na naše povremeno, ponekad katastrofalno, preveliko poverenje u tehnologiju uticala jednostavna činjenica: evoluirali smo da budemo društvene životinje u svetu u kome mašine nisu postojale.
Sada postoje i mi stavljamo svoj novac, svoje lične podatke, pa čak i svoje živote pod njihov nadzor sve vreme.
To nije nužno pogrešna stvar - samo što smo često prilično loši u proceni kada je to ispravno.
Pogledajte video o robotu koji pleše kao Mik Džeger
Pratite nas na Fejsbuku i Tviteru. Ako imate predlog teme za nas, javite se na bbcnasrpskom@bbc.co.uk
Bonus video: