Door Perla Maiolino, Universiteit van Oxford
Tegenwoordig zien robots de wereld met een gemak dat ooit alleen tot science fiction behoorde. Ze kunnen objecten herkennen, door rommelige ruimtes navigeren en duizenden pakketten per uur sorteren. Maar vraag een robot om iets zachtjes, veilig of betekenisvol aan te raken, en de grenzen verschijnen onmiddellijk.
Als onderzoeker op het gebied van zachte robotica die werkt aan kunstmatige huid en gesensoriseerde lichamen, heb ik ontdekt dat het proberen om robots een gevoel van aanraking te geven ons dwingt te worstelen met hoe verrassend geavanceerd menselijke aanraking eigenlijk is.
Mijn werk begon met de ogenschijnlijk eenvoudige vraag hoe robots de wereld via hun lichaam zouden kunnen waarnemen. Ontwikkel tactiele sensoren, bedek er een auto volledig mee, verwerk de signalen en op het eerste gezicht zou je iets soortgelijks moeten aanraken.
Behalve dat menselijke aanraking niets lijkt op een simpele drukkaart. Onze huid bevat verschillende soorten mechanoreceptoren, elk afgestemd op verschillende stimuli zoals trillingen, rek of textuur. Onze ruimtelijke resolutie is buitengewoon fijn en bovenal is aanraking actief: we drukken, glijden en passen voortdurend aan, waardoor ruwe sensatie wordt omgezet in perceptie door middel van dynamische interactie.
Ingenieurs kunnen er soms een versie op vingerschaal van nabootsen, maar het reproduceren ervan op een heel zacht lichaam, en een robot de mogelijkheid geven om deze rijke zintuiglijke stroom te interpreteren, is een uitdaging van een heel andere orde.
Het werken aan een kunstmatige huid brengt ook snel een ander inzicht aan het licht: veel van wat wij ‘intelligentie’ noemen, leeft niet uitsluitend in de hersenen. De biologie biedt verrassende voorbeelden: de bekendste is de octopus.
Octopussen verspreiden de meeste van hun neuronen langs hun ledematen. Uit onderzoek naar hun motorische gedrag blijkt dat de arm van een octopus bewegingspatronen lokaal kan genereren en aanpassen op basis van sensorische input, met beperkte input van de hersenen.
Hun zachte, meegaande lichamen dragen rechtstreeks bij aan hoe ze zich in de wereld gedragen. En dit soort gedistribueerde, belichaamde intelligentie, waarbij gedrag voortkomt uit de interactie tussen lichaam, materiaal en omgeving, krijgt steeds meer invloed in de robotica.
Aanraking is ook het eerste zintuig dat mensen in de baarmoeder ontwikkelen. Ontwikkelingsneurowetenschappen tonen aan dat tactiele gevoeligheid ontstaat vanaf ongeveer acht weken zwangerschap, en zich vervolgens tijdens het tweede trimester door het lichaam verspreidt. Lang voordat het gezichtsvermogen of het gehoor betrouwbaar functioneren, verkent de foetus zijn omgeving door middel van aanraking. Aangenomen wordt dat dit helpt vorm te geven aan de manier waarop kinderen gewicht, weerstand en ondersteuning, de basisfysica van de wereld, beginnen te begrijpen.
Dit onderscheid is ook belangrijk voor robotica. Decennia lang hebben robots sterk vertrouwd op camera’s en lidar (een detectiemethode die lichtpulsen gebruikt om afstand te meten) terwijl ze fysiek contact vermijden. Maar we kunnen niet van machines verwachten dat ze in de fysieke wereld competentie op menselijk niveau bereiken als ze dit zelden via aanraking ervaren.
Simulatie kan een robot nuttig gedrag aanleren, maar zonder echte fysieke verkenning bestaat het risico dat intelligentie eenvoudigweg wordt ingezet in plaats van ontwikkeld. Om te leren zoals mensen dat doen, hebben robots lichamen nodig die voelen.
Een “zachte” robothand met tactiele sensoren, ontwikkeld door het Soft Robotics Lab van de Universiteit van Oxford, die een appel vasthoudt. Video: Oxford Robotics Institute.
Eén benadering die mijn groep onderzoekt, is om robots een zekere mate van ‘lokale intelligentie’ in hun zintuiglijke lichamen te geven. Mensen profiteren van de compliantie van zacht weefsel: de huid vervormt op een manier die de grip vergroot, de wrijving verbetert en sensorische signalen filtert voordat ze zelfs maar de hersenen bereiken. Dit is een vorm van intelligentie die rechtstreeks in de anatomie is ingebouwd.
Onderzoek naar zachte robotica en morfologisch computergebruik stelt dat het lichaam een deel van de werklast van de hersenen kan verlichten. Door robots te bouwen met zachte structuren en verwerking op laag niveau, zodat ze hun grip of houding kunnen aanpassen op basis van tactiele feedback zonder te wachten op centrale commando’s, hopen we machines te creëren die veiliger en natuurlijker omgaan met de fysieke wereld.

De gezondheidszorg is een gebied waarop dit vermogen een groot verschil kan maken. Mijn groep heeft onlangs een robotachtige patiëntensimulator ontwikkeld voor het trainen van ergotherapeuten (OT’s). Studenten oefenen vaak op elkaar, wat het moeilijk maakt om de nuances te leren van de tactiele vaardigheden die betrokken zijn bij het veilig vasthouden van iemand. Bij echte patiënten moeten cursisten een balans vinden tussen functionele en affectieve aanraking, persoonlijke grenzen respecteren en subtiele signalen van pijn of ongemak herkennen. Onderzoek naar sociale en emotionele aanraking laat zien hoe belangrijk deze signalen zijn voor het menselijk welzijn.
Om cursisten deze interacties te helpen begrijpen, produceert onze simulator, bekend als Mona, praktische gedragsreacties. Wanneer een OK bijvoorbeeld op een gesimuleerde pijnlijke plek in de kunsthuid drukt, reageert de robot verbaal en met een kleine fysieke ‘klap’ van het lichaam om het ongemak na te bootsen.
Op dezelfde manier, als de leerling probeert een ledemaat verder te bewegen dan wat de gesimuleerde patiënt kan verdragen, gaat de robot trillen of weerstand bieden, wat een realistisch signaal geeft dat de beweging moet stoppen. Door tactiele interactie vast te leggen via kunstmatige huid, geeft onze simulator feedback die nooit eerder beschikbaar was in OT-training.
Robots die erom geven
In de toekomst kunnen robots met veilige en gevoelige lichamen de groeiende druk op de sociale zorg helpen aanpakken. Naarmate de bevolking ouder wordt, merken veel gezinnen plotseling dat ze familieleden moeten tillen, verhuizen of ondersteunen zonder formele training. ‘Zorgrobots’ zouden hierbij helpen, waardoor het gezinslid mogelijk langer thuis verzorgd kan worden.
Verrassend genoeg is de vooruitgang bij de ontwikkeling van dit type robot veel langzamer gegaan dan de eerste verwachtingen suggereerden, zelfs in Japan, waar enkele van de eerste prototypes van gezondheidszorgrobots werden geïntroduceerd. Een van de meest geavanceerde voorbeelden is Airec, een mensachtige robot die is ontwikkeld als onderdeel van het Moonshot-programma van de Japanse overheid om te helpen bij verpleegkundige en ouderenzorgtaken. Dit veelzijdige programma, gelanceerd in 2019, streeft naar “ambitieus onderzoek en ontwikkeling gebaseerd op gedurfde ideeën” om een “maatschappij op te bouwen waarin mensen tegen 2050 vrij kunnen zijn van de beperkingen van lichaam, hersenen, ruimte en tijd”.
De Japanse Airec zorgrobot is een van de meest geavanceerde in ontwikkeling. Globale updatevideo.
Over de hele wereld blijft het echter moeilijk om onderzoeksprototypes te vertalen naar gereguleerde robots. Hoge ontwikkelingskosten, strenge veiligheidseisen en het ontbreken van een duidelijke commerciële markt hebben de vooruitgang vertraagd. Maar hoewel de technische en regelgevende belemmeringen aanzienlijk zijn, worden ze voortdurend aangepakt.
Robots die veilig de fysieke ruimte met mensen kunnen delen, moeten voelen en moduleren hoe ze alles aanraken wat in contact komt met hun lichaam. Deze gevoeligheid voor het hele lichaam is wat de volgende generatie zachte robots zal onderscheiden van de hedendaagse starre machines.
We zijn nog ver verwijderd van robots die deze intieme taken zelfstandig kunnen uitvoeren. Maar het bouwen van machines met aanraakbediening verandert ons begrip van aanraking al. Elke stap in de richting van tactiele robotintelligentie benadrukt de buitengewone verfijning van ons lichaam en het diepgaande verband tussen sensatie, beweging en wat wij intelligentie noemen.
Dit artikel is geschreven in samenwerking met het Professors’ Program, onderdeel van Prototypes for Humanity, een mondiaal initiatief dat academische innovatie demonstreert en versnelt om sociale en ecologische uitdagingen op te lossen. The Conversation is een mediapartner van Prototypes for Humanity 2025.![]()
Perla Maiolino, universitair hoofddocent Ingenieurswetenschappen, lid van het Oxford Robotics Institute, Universiteit van Oxford
Dit artikel is opnieuw gepubliceerd vanuit The Conversation onder een Creative Commons-licentie. Lees het originele artikel.

Het gesprek
is een onafhankelijke bron van nieuws en opinie, afkomstig uit de academische en onderzoeksgemeenschap en rechtstreeks aan het publiek geleverd.

Het gesprek
is een onafhankelijke bron van nieuws en opinie, afkomstig uit de academische en onderzoeksgemeenschap en rechtstreeks aan het publiek geleverd.



