Home Nieuws Het lipsynchroniserende robotgezicht is een stap voorwaarts om toekomstige robots te helpen...

Het lipsynchroniserende robotgezicht is een stap voorwaarts om toekomstige robots te helpen praten zoals wij

3
0
Het lipsynchroniserende robotgezicht is een stap voorwaarts om toekomstige robots te helpen praten zoals wij

Het ongemak dat langs je ruggengraat loopt als je iets ziet dat zich als een mens gedraagt, maar dat niet is, blijft een groot probleem in de robotica, vooral voor robots die zijn gebouwd om er net zo uit te zien en te praten als wij.

Die specifieke sensatie wordt de griezelige vallei genoemd. Eén manier waarop robotici deze vallei proberen te overbruggen, is door de lipbewegingen van een robot te matchen met zijn stem. Dat maakte Columbia University afgelopen woensdag bekend onderzoek waarin wordt onderzocht hoe een nieuwe golf robotgezichten realistischer kan spreken.

Hod Lipson, een hoogleraar techniek uit Columbia die aan het onderzoek heeft meegewerkt, vertelde CNET dat een van de belangrijkste redenen waarom robots ‘griezelig’ zijn, is dat ze hun lippen niet bewegen zoals wij dat doen als ze praten. “Ons doel is om dit probleem, dat in de robotica over het hoofd wordt gezien, op te lossen”, zegt Lipson.


Mis geen van onze onpartijdige technische inhoud en laboratoriumrecensies. CNET toevoegen als uw favoriete Google-bron.


Dit onderzoek komt naarmate de hype groeit rond robots die zijn ontworpen voor gebruik thuis en op het werk. NAAR CES2026 eerder deze maand zag CNET bijvoorbeeld een scala aan robots ontworpen om met mensen te communiceren. Alles van de laatste Boston Dynamics-atlas robot een huishoudelijke robots zoals degenen die wasgoed opvouwenen ook naar schildpadvormige bot ontworpen voor milieuonderzoek, verscheen het op ’s werelds grootste technologiebeurs. Als CES een indicatie is, zou 2026 een geweldig jaar voor consumentenrobotica.

Atlas van kunstmatige intelligentie

CNET

Centraal hierin staan ​​mensachtige robots die zijn uitgerust met lichamen, gezichten en synthetische huid die de onze imiteren. CES-cohort inbegrepen mensachtige robot van Realbotix die zouden kunnen functioneren als informatiestands of comfort zouden kunnen bieden aan mensen, evenals a Lovense robot ontworpen voor relaties die zijn uitgerust met kunstmatige intelligentie om intieme gesprekken te “herinneren”.

Maar een mismatch van een fractie van een seconde tussen lipbewegingen en spraak kan het verschil maken tussen een machine waaraan je emotioneel gehecht kunt raken, en een machine die weinig meer is dan een machine. griezelige animatronic.

Dus als mensen accepteren dat humanoïde robots in het dagelijks leven onder ons ‘leven’, is het waarschijnlijk het beste als ze ons niet elke keer dat ze spreken een beetje ongemakkelijk maken.

Kijk hier eens naar: Lipsynchronisatierobot zingt een lied

Lipsynchronisatie-robot

Om robots te maken met menselijke gezichten die net als wij praten, moeten de lippen van de robot zorgvuldig worden gesynchroniseerd met het geluid van zijn spraak. Het onderzoeksteam van Columbia heeft een techniek ontwikkeld die robotmonden helpt te bewegen zoals de onze, door zich te concentreren op spraakgeluiden.

Eerst construeerde het team het gezicht van een mensachtige robot met een mond die kan spreken en zingen om het verontrustende vallei-effect te verminderen. Het gezicht van de robot, gemaakt van siliconenhuid, is uitgerust met magnetische connectoren voor complexe lipbewegingen. Hierdoor kan het gezicht lipvormen vormen die 24 medeklinkers en 16 klinkers bedekken.

Kijk hier eens naar: Het gezicht van de lipsynchroniserende robot resoneert de afzonderlijke woorden

Om lipbewegingen af ​​te stemmen op spraak, ontwierpen ze een ‘leerpijplijn’ om visuele gegevens uit lipbewegingen te verzamelen. Een AI-model gebruikt deze gegevens voor training en genereert vervolgens referentiepunten voor motorische commando’s. Vervolgens zet een ‘gezichtsactietransformator’ motorische commando’s om in mondbewegingen die synchroniseren met audio.

Met behulp van deze structuur kon het gezicht van de robot, Emo genaamd, in meerdere talen ‘spreken’, inclusief talen die geen deel uitmaakten van de training, zoals Frans, Chinees en Arabisch. De truc is dat het raamwerk de klanken van spraak analyseert, en niet de betekenis achter de klank.

“We hebben het tongspecifieke probleem vermeden door een model te trainen dat rechtstreeks van audio naar lipbeweging gaat”, aldus Lipson. “Er is geen begrip van taal.”

Kijk hier eens naar: De lipsynchronisatierobot stelt zichzelf voor

Waarom heeft een robot überhaupt een gezicht en lippen nodig?

Mensen werken al heel lang samen met robots, maar ze hebben er altijd uitgezien als machines en niet als mensen: de onstoffelijke, zeer mechanisch ogende armen aan de lopende band of de grote puck van een robotstofzuiger die over onze keukenvloeren beweegt.

Nu de AI-taalmodellen die ten grondslag liggen aan chatbots echter wijdverspreider zijn geworden, werken technologiebedrijven er hard aan om robots te leren hoe ze in realtime met ons kunnen communiceren door middel van taal.

Er is een heel vakgebied genaamd mens-robot interactie waarin wordt onderzocht hoe robots naast mensen moeten bestaan, zowel fysiek als sociaal. In 2024, een studie in Berlijn, waarbij 157 deelnemers betrokken waren, ontdekte dat het vermogen van een robot om empathie en emoties uit te drukken via verbale communicatie cruciaal is voor effectieve interactie met mensen. EN nog een studie uit 2024 uit Italië ontdekte dat actieve taal belangrijk was voor de samenwerking tussen mens en robot bij het werken aan complexe taken zoals montage.

Als we thuis en op het werk op robots willen vertrouwen, moeten we met hen kunnen communiceren zoals we dat met elkaar doen. In de toekomst, zegt Lipson, zou onderzoek met lipsynchroniserende robots nuttig kunnen zijn voor elk type humanoïde robot dat met mensen moet communiceren.

Het is ook gemakkelijk om je een toekomst voor te stellen waarin mensachtige robots identiek zijn aan ons. Lipson stelt dat een zorgvuldig ontwerp ervoor kan zorgen dat mensen begrijpen dat ze met een robot praten, en niet met een persoon. Een voorbeeld zou zijn om van humanoïde robots te eisen dat ze een blauwe huid hebben, zegt Lipson, “zodat ze niet voor een mens kunnen worden aangezien.”



Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in