Slobodno vreme
Tehnologija
Tehnologija po uzoru na ljudsku
Naučili robote da lažu
27.09.2010. 12:00
Izvor: Blic
Naučili robote da lažu
Ako hoćete da izbegnete komšiju koji vas nervira i ne pije vam se kafa sa njim, ili vam se ne priča telefonom, ne morate da se šunjate po kući ili strepite nad špijunkom. Mogli biste da, recimo, pustite svog robota da se javi ili otvori vrata umesto vas i „slaže“ da niste kod kuće.
Do sada smo imali robote koji nam okopavaju baštu, brinu o stanu, rade u fabrikama, operišu umesto lekara… Međutim, dvojica naučnika s Instituta za tehnologiju u Džordžiji rešili su da naprave malo „inteligentnije“ robote. Prvi korak Ronalda Arkina i Alena Vagnera bio je da nauče robota koji laže, da prepozna situaciju koja opravdava primenu obmane. Vagner i Arkin su koristili teorije uzajamne zavisnosti i teoriju igre da razviju algoritme koji testiraju veličinu laži u određenoj situaciji. Tim je napravio kompjuterske algoritme koji omogućavaju robotima da odluče da li će da nasamare čoveka ili drugog robota i napravili su strategije za najbolje šanse da se za to ne sazna. Jednog od dva robota su u tom eksperimentu naučili da laže. Situacija je morala da ispuni dva ključna uslova da bi laž bila opravdana – mora da postoji konflikt između robota koji laže i tragača, a ovaj prvi mora da ima koristi od obmane. Počeli su od toga što su naučili robote da se skrivaju jedan od drugog i programirali su jednog od robota da onom drugom ostavi lažne tragove. Crni robot sakrivao se u jedno od tri predviđena skrovišta, a crveni robot ga je tražio služeći se prevrnutim obojenim oznakama na putu do jednog od skrovišta. Međutim, crni robot je bio programiran da promeni smer nakon što je oborio oznake koje vode do jednog od mesta, i sakrije se na drugom. U 75 odsto od 20 pokušaja, njegova „laž“ je uspevala. Neuspeli slučajevi kada je pronađen nisu uspeli ne zbog neuspele laži, već zato što je robot bio nespretan u obaranju oznaka. Komunikacija “lažljivca” je određena obrascima koji pokazuju lažnu poziciju skrivanja, kao, recimo, kada kaže da ide desno, a u stvari ide levo, objašnjava Vagner. Naučnici su se složili da rezultati eksperimenta nisu bili savršeni, ali su pokazali da su učenje i korišćenje lažnih signala kod stvarnih robota mogući. Od samog početka brinu nas i etičke naznake vezane za stvaranje robota sposobnih za laž i svesni smo da postoje i korisni i štetni aspekti toga. Mi čvrsto podržavamo diskusije o primerenosti upotrebe robota koji lažu da bi se utvrdilo neko pravilo ili smernice koje bi dalje uticale na razvoj ovih sistema – dodaje Arkin.