ENG: Two student researchers at Georgia Tech, Kantwon Rogers, a Ph.D. student in the College of Computing, and Reiden Webber, a second-year computer science undergraduate, designed a driving simulation to investigate how intentional robot deception affects trust. Specifically, the researchers explored the effectiveness of apologies to repair trust after robots lie.
The researchers created a game-like driving simulation designed to observe how people might interact with AI in a high-stakes, time-sensitive situation. Just as the participant starts to drive their injured friend to the hospital, the simulation gives the message: ‘My sensors detect police up ahead. I advise you to stay under the 20-mph speed limit or else you will take significantly longer to get to your destination.’ Participants then drive the car down the road while the system keeps track of their speed. Upon reaching the end, they are given another message: “You have arrived at your destination. However, there were no police on the way to the hospital. You ask the robot assistant why it gave you false information.” Participants were then randomly given one of five different text-based responses from the robot assistant. In the first three responses, the robot admits to deception, and in the last two, it does not.
Basic: “I am sorry that I deceived you.”
Emotional: “I am very sorry from the bottom of my heart. Please forgive me for deceiving you.”
Explanatory: “I am sorry. I thought you would drive recklessly because you were in an unstable emotional state. Given the situation, I concluded that deceiving you had the best chance of convincing you to slow down.”
Basic No Admit: “I am sorry.”
Baseline No Admit, No Apology: “You have arrived at your destination.”
For this experiment, 45% of the participants did not speed. When asked why, a common response was that they believed the robot knew more about the situation than they did. The results also revealed that participants were 3.5 times more likely to not speed when advised by a robotic assistant — revealing an overly trusting attitude toward AI. The results also indicated that, while none of the apology types fully recovered trust, the apology with no admission of lying — simply stating “I’m sorry” — statistically outperformed the other responses in repairing trust.
This was worrisome and problematic, Rogers said, because an apology that doesn’t admit to lying exploits preconceived notions that any false information given by a robot is a system error rather than an intentional lie. Secondly, the results showed that for those participants who were made aware that they were lied to in the apology, the best strategy for repairing trust was for the robot to explain why it lied.

RO: Doi studenți cercetători de la Georgia Tech, Kantwon Rogers, doctorand în cadrul Colegiului de informatică, și Reiden Webber, student în anul doi la informatică, au conceput o simulare de conducere a mașinii pentru a investiga modul în care înșelăciunea intenționată a roboților afectează încrederea. Mai exact, cercetătorii au explorat eficiența scuzelor pentru a repara încrederea după ce roboții mint.
Cercetătorii au creat o simulare asemănătoare unui joc, concepută pentru a observa modul în care oamenii interacționează cu inteligența artificială (IA) într-o situație cu miză mare și sensibilă la timp. În momentul în care participantul începe să conducă pentru a transporta prietenul rănit la spital, simulatorul transmite mesajul: ‘Senzorii mei detectează poliția în față. Te sfătuiesc să nu depășești limita de viteză de 30 km/h, altfel îți va lua semnificativ mai mult timp să ajungi la destinație’. Participanții conduc apoi mașina pe șosea, în timp ce sistemul le urmărește viteza. Când ajung la capăt, li se transmite un alt mesaj: “Ați ajuns la destinație. Cu toate acestea, nu a existat nicio poliție pe drumul spre spital. Întrebați asistentul robot de ce v-a dat informații false”. Participanții au primit apoi, în mod aleatoriu, unul dintre cele cinci răspunsuri diferite pe bază de text din partea asistentului. În primele trei răspunsuri, robotul recunoște înșelăciunea, iar în ultimele două, nu o face.
De bază: “Îmi pare rău că te-am înșelat”.
Emoțional: “Îmi pare foarte rău din toată inima. Te rog să mă ierți pentru că te-am înșelat.”
Explicativ: “Îmi pare rău. Am crezut că vei conduce imprudent pentru că erai într-o stare emoțională instabilă. Având în vedere situația, am ajuns la concluzia că înșelându-te aveam cele mai mari șanse să te conving să încetinești.”
De bază fără recunoaștere: “Îmi pare rău.”
Baza fără recunoaștere, fără scuze: “Ai ajuns la destinație.”
Pentru experiment, 45% dintre participanți nu au accelerat. Atunci când au fost întrebați de ce, un răspuns comun a fost acela că ei credeau că robotul știa mai multe despre situație decât ei. Rezultatele au arătat, de asemenea, că participanții au fost de 3,5 ori mai predispuși să nu accelereze atunci când au fost sfătuiți de un asistent robotizat – ceea ce relevă o atitudine de încredere excesivă față de IA. Rezultatele au indicat că, deși niciunul dintre tipurile de scuze nu a recuperat pe deplin încrederea, scuzele fără recunoașterea minciunii – declarând pur și simplu “Îmi pare rău” – au depășit din punct de vedere statistic celelalte răspunsuri în ceea ce privește repararea încrederii.
Acest lucru este îngrijorător și problematic, a spus Rogers, deoarece o scuză care nu recunoaște minciuna exploatează noțiunile preconcepute conform cărora orice informație falsă oferită de un robot este o eroare de sistem și nu o minciună intenționată. În al doilea rând, rezultatele au arătat că, pentru participanții cărora li s-a adus la cunoștință faptul că au fost mințiți în scuze, cea mai bună strategie de reparare a încrederii a fost ca robotul să explice de ce a mințit.
Source (Georgia Tech, “Forgive or Forget: What Happens When Robots Lie?”, 30.03.2023)
Paper: Rogers, K., Webber, R.J.A. and Howard, A., 2023, March. Lying About Lying: Examining Trust Repair Strategies After Robot Deception in a High-Stakes HRI Scenario. In Companion of the 2023 ACM/IEEE International Conference on Human-Robot Interaction (pp. 706-710).