Origami-Inspired Robots Can Sense, Analyze and Act in Challenging Environments

ENG: Roboticists have been using a technique similar to the ancient art of paper folding to develop autonomous machines out of thin, flexible sheets. These lightweight robots are simpler and cheaper to make and more compact for easier storage and transport. However, the rigid computer chips traditionally needed to enable advanced robot capabilities — sensing, analyzing and responding to the environment — add extra weight to the thin sheet materials and makes them harder to fold. The semiconductor-based components therefore have to be added after a robot has taken its final shape. Now, a multidisciplinary team led by researchers at the UCLA Samueli School of Engineering has created a new fabrication technique for fully foldable robots that can perform a variety of complex tasks without relying on semiconductors.

By embedding flexible and electrically conductive materials into a pre-cut, thin polyester film sheet, the researchers created a system of information-processing units, or transistors, which can be integrated with sensors and actuators. They then programmed the sheet with simple computer analogical functions that emulate those of semiconductors. Once cut, folded and assembled, the sheet transformed into an autonomous robot that can sense, analyze and act in response to their environments with precision. The researchers named their robots “OrigaMechs,” short for Origami MechanoBots.

Using the new approach, the team built three robots to demonstrate the system’s potential: an insect-like walking robot that reverses direction when either of its antennae senses an obstacle, a Venus flytrap-like robot that envelops a “prey” when both of its jaw sensors detect an object, and a reprogrammable two-wheeled robot that can move along pre-designed paths of different geometric patterns.

RO: Până acum, roboticienii foloseau o tehnică similară cu arta antică a împăturitului hârtiei pentru a dezvolta mașini autonome din foi subțiri și flexibile. Acești roboți ușori sunt simplu și ieftin de realizat, fiind mai compacți pentru a fi ușor de depozitat și transportat. Cu toate acestea, cipurile de calculator rigide necesare în mod tradițional pentru a permite capacitățile avansate ale roboților – detectarea, analiza și reacția la mediul înconjurător – adaugă o greutate suplimentară la materialele subțiri din foi și le face mai greu de pliat. Prin urmare, componentele bazate pe semiconductori trebuie adăugate după ce robotul a căpătat forma finală. Acum, o echipă multidisciplinară condusă de cercetători de la Școala de Inginerie Samueli din cadrul UCLA a creat o nouă tehnică de fabricare pentru roboți complet pliabili care pot îndeplini o varietate de sarcini complexe fără a se baza pe semiconductori.

Prin încorporarea unor materiale flexibile și conductoare de electricitate într-o foaie de film de poliester subțire pretăiată, cercetătorii au creat un sistem de unități de procesare a informației, sau tranzistori, care pot fi integrate cu senzori și actuatori. Ei au programat apoi foaia cu funcții analogice simple de calculator care le imită pe cele ale semiconductorilor. Odată tăiată, pliată și asamblată, foaia s-a transformat într-un robot autonom care poate simți, analiza și acționa ca răspuns la mediul înconjurător cu precizie. Cercetătorii și-au numit roboții “OrigaMechs”, prescurtare de la Origami MechanoBots.

Folosind noua abordare, echipa a construit trei roboți pentru a demonstra potențialul sistemului: un robot asemănător unei insecte care își inversează direcția atunci când oricare dintre antenele sale detectează un obstacol, un robot asemănător cu o capcană pentru muște Venus, care înfășoară o “pradă” atunci când ambii senzori ai fălcii sale detectează un obiect, și un robot reprogramabil cu două roți care se poate deplasa de-a lungul unor trasee predefinite cu diferite modele geometrice.

Source (UCLA, “Origami-Inspired Robots Can Sense, Analyze and Act in Challenging Environments”, 03.04.2023)

Paper: Yan, W., Li, S., Deguchi, M., Zheng, Z., Rus, D. and Mehta, A., 2023. Origami-based integration of robots that sense, decide, and respond. Nature Communications14(1), p.1553.

Flux Keyboard

Until now, keyboards have not reached their full potential. Keyboards are tactile, but powerful shortcuts are hidden behind unchanging keys. Touchscreens are adaptable but are prone to misclicks and can’t be used by feel. The Flux Keyboard combines the best of both worlds. By incorporating the tactility and speed of a mechanical keyboard with the adaptability of a screen it breaks down the barriers between you and what you want to get done. Check the Flux Keyboard on Kickstarter.

Forgive or Forget: What Happens When Robots Lie?

ENG: Two student researchers at Georgia Tech, Kantwon Rogers, a Ph.D. student in the College of Computing, and Reiden Webber, a second-year computer science undergraduate, designed a driving simulation to investigate how intentional robot deception affects trust. Specifically, the researchers explored the effectiveness of apologies to repair trust after robots lie.

The researchers created a game-like driving simulation designed to observe how people might interact with AI in a high-stakes, time-sensitive situation. Just as the participant starts to drive their injured friend to the hospital, the simulation gives the message: ‘My sensors detect police up ahead. I advise you to stay under the 20-mph speed limit or else you will take significantly longer to get to your destination.’ Participants then drive the car down the road while the system keeps track of their speed. Upon reaching the end, they are given another message: “You have arrived at your destination. However, there were no police on the way to the hospital. You ask the robot assistant why it gave you false information.” Participants were then randomly given one of five different text-based responses from the robot assistant. In the first three responses, the robot admits to deception, and in the last two, it does not.

Basic: “I am sorry that I deceived you.”
Emotional: “I am very sorry from the bottom of my heart. Please forgive me for deceiving you.”
Explanatory: “I am sorry. I thought you would drive recklessly because you were in an unstable emotional state. Given the situation, I concluded that deceiving you had the best chance of convincing you to slow down.”
Basic No Admit: “I am sorry.”
Baseline No Admit, No Apology: “You have arrived at your destination.”

For this experiment, 45% of the participants did not speed. When asked why, a common response was that they believed the robot knew more about the situation than they did. The results also revealed that participants were 3.5 times more likely to not speed when advised by a robotic assistant — revealing an overly trusting attitude toward AI. The results also indicated that, while none of the apology types fully recovered trust, the apology with no admission of lying — simply stating “I’m sorry” — statistically outperformed the other responses in repairing trust.

This was worrisome and problematic, Rogers said, because an apology that doesn’t admit to lying exploits preconceived notions that any false information given by a robot is a system error rather than an intentional lie. Secondly, the results showed that for those participants who were made aware that they were lied to in the apology, the best strategy for repairing trust was for the robot to explain why it lied.

RO: Doi studenți cercetători de la Georgia Tech, Kantwon Rogers, doctorand în cadrul Colegiului de informatică, și Reiden Webber, student în anul doi la informatică, au conceput o simulare de conducere a mașinii pentru a investiga modul în care înșelăciunea intenționată a roboților afectează încrederea. Mai exact, cercetătorii au explorat eficiența scuzelor pentru a repara încrederea după ce roboții mint.

Cercetătorii au creat o simulare asemănătoare unui joc, concepută pentru a observa modul în care oamenii interacționează cu inteligența artificială (IA) într-o situație cu miză mare și sensibilă la timp. În momentul în care participantul începe să conducă pentru a transporta prietenul rănit la spital, simulatorul transmite mesajul: ‘Senzorii mei detectează poliția în față. Te sfătuiesc să nu depășești limita de viteză de 30 km/h, altfel îți va lua semnificativ mai mult timp să ajungi la destinație’. Participanții conduc apoi mașina pe șosea, în timp ce sistemul le urmărește viteza. Când ajung la capăt, li se transmite un alt mesaj: “Ați ajuns la destinație. Cu toate acestea, nu a existat nicio poliție pe drumul spre spital. Întrebați asistentul robot de ce v-a dat informații false”. Participanții au primit apoi, în mod aleatoriu, unul dintre cele cinci răspunsuri diferite pe bază de text din partea asistentului. În primele trei răspunsuri, robotul recunoște înșelăciunea, iar în ultimele două, nu o face.

De bază: “Îmi pare rău că te-am înșelat”.
Emoțional: “Îmi pare foarte rău din toată inima. Te rog să mă ierți pentru că te-am înșelat.”
Explicativ: “Îmi pare rău. Am crezut că vei conduce imprudent pentru că erai într-o stare emoțională instabilă. Având în vedere situația, am ajuns la concluzia că înșelându-te aveam cele mai mari șanse să te conving să încetinești.”
De bază fără recunoaștere: “Îmi pare rău.”
Baza fără recunoaștere, fără scuze: “Ai ajuns la destinație.”

Pentru experiment, 45% dintre participanți nu au accelerat. Atunci când au fost întrebați de ce, un răspuns comun a fost acela că ei credeau că robotul știa mai multe despre situație decât ei. Rezultatele au arătat, de asemenea, că participanții au fost de 3,5 ori mai predispuși să nu accelereze atunci când au fost sfătuiți de un asistent robotizat – ceea ce relevă o atitudine de încredere excesivă față de IA. Rezultatele au indicat că, deși niciunul dintre tipurile de scuze nu a recuperat pe deplin încrederea, scuzele fără recunoașterea minciunii – declarând pur și simplu “Îmi pare rău” – au depășit din punct de vedere statistic celelalte răspunsuri în ceea ce privește repararea încrederii.

Acest lucru este îngrijorător și problematic, a spus Rogers, deoarece o scuză care nu recunoaște minciuna exploatează noțiunile preconcepute conform cărora orice informație falsă oferită de un robot este o eroare de sistem și nu o minciună intenționată. În al doilea rând, rezultatele au arătat că, pentru participanții cărora li s-a adus la cunoștință faptul că au fost mințiți în scuze, cea mai bună strategie de reparare a încrederii a fost ca robotul să explice de ce a mințit.

Source (Georgia Tech, “Forgive or Forget: What Happens When Robots Lie?”, 30.03.2023)

Paper: Rogers, K., Webber, R.J.A. and Howard, A., 2023, March. Lying About Lying: Examining Trust Repair Strategies After Robot Deception in a High-Stakes HRI Scenario. In Companion of the 2023 ACM/IEEE International Conference on Human-Robot Interaction (pp. 706-710).

First wearable device for vocal fatigue senses when your voice needs a break

ENG: Northwestern University researchers have developed the first smart wearable device to continuously track how much people use their voices, alerting them to overuse before vocal fatigue and potential injury set in. The first-of-its-kind, battery-powered, wireless device and accompanying algorithms could be a game-changer for professional singers, teachers, politicians, call-center workers, coaches and anyone who relies on their voices to communicate effectively and make a living. It also could help clinicians remotely and continuously monitor patients with voice disorders throughout their treatment.

The soft, flexible, postage-stamp-sized device comfortably adheres to the upper chest to sense the subtle vibrations associated with talking and singing. From there, the captured data is instantaneously streamed via Bluetooth to the users’ smartphone or tablet, so they can monitor their vocal activities in real time throughout the day and measure cumulative total vocal usage. Custom machine-learning algorithms distinguish the difference between speaking and singing, enabling singers to separately track each activity.

With the app, users can set their personalized vocal thresholds. When they near that threshold, their smartphone, smartwatch or an accompanying device located on the wrist provides real-time haptic feedback as an alert. Then, they can rest their voices before pushing it too far.

RO: Cercetătorii de la Universitatea Northwestern au dezvoltat primul dispozitiv portabil inteligent care urmărește în permanență cât de mult își folosesc oamenii vocea, alertându-i în caz de suprasolicitare înainte de apariția oboselii vocale și a unor potențiale leziuni. Acest dispozitiv fără fir, primul de acest fel, alimentat cu baterii, și algoritmii care îl însoțesc, ar putea schimba situația pentru cântăreți profesioniști, profesori, politicieni, lucrători din call-center, antrenori și pentru oricine se bazează pe vocea lor pentru a comunica eficient și pentru a-și câștiga existența. De asemenea, ar putea ajuta medicii să monitorizeze de la distanță și în permanență pacienții cu tulburări de voce pe tot parcursul tratamentului.

Dispozitivul moale, flexibil, de mărimea unei ștampile poștale, aderă confortabil la partea superioară a pieptului pentru a detecta vibrațiile subtile asociate cu vorbitul și cântatul. De acolo, datele captate sunt transmise instantaneu prin Bluetooth către smartphone-ul sau tableta utilizatorilor, astfel încât aceștia să își poată monitoriza activitățile vocale în timp real pe parcursul zilei și să măsoare utilizarea vocală totală cumulată. Algoritmii personalizați de învățare automată disting diferența dintre vorbit și cântat, permițând cântăreților să urmărească separat fiecare activitate.

Cu ajutorul aplicației, utilizatorii își pot seta praguri vocale personalizate. Atunci când se apropie de acel prag, smartphone-ul, smartwatch-ul sau un dispozitiv de însoțire amplasat la încheietura mâinii le oferă un feedback haptic în timp real sub formă de alertă. Apoi, ei își pot odihni vocea înainte de a o împinge prea departe.

Source (Northwestern News, “First wearable device for vocal fatigue senses when your voice needs a break”, 20.02.2023)