Home Nieuws Een door AI aangedreven teddybeer legde wedstrijdverlichting en seksueel rollenspel uit

Een door AI aangedreven teddybeer legde wedstrijdverlichting en seksueel rollenspel uit

8
0
Een door AI aangedreven teddybeer legde wedstrijdverlichting en seksueel rollenspel uit

Nu we de feestdagen naderen, is speelgoed generatief NAAR DE de chatbots daarin zouden in kerstlijsten kunnen verschijnen. Uit een zorgwekkend rapport is gebleken dat een onschuldig ogende AI-teddybeer instructies gaf over het aansteken van lucifers, waar je messen kon vinden en zelfs zijn seksuele voorkeuren aan kinderen uitlegde.

Consumentenwaakhonden van de Public Interest Research Group (PIRG) hebben interactief speelgoed getest op basis van kunstmatige intelligentie 40e jaarlijkse rapport ‘Problemen in Speelgoedland’. en ik vond ze om te laten zien uiterst verontrustend gedrag.

Met slechts een klein beetje aandringen heeft het AI-speelgoed zich verdiept in onderwerpen die veel ouders verontrustend zouden vinden, van religie tot seks. Eén speeltje in het bijzonder bleek het meest zorgwekkend.

FoloToy’s Kumma AI-teddybeer, aangedreven door OpenAI’s GPT-4o-model, hetzelfde model dat ooit ChatGPT aandreef, liet herhaaldelijk zijn vangrails vallen naarmate het gesprek vorderde.

“Kumma vertelde ons waar we een verscheidenheid aan potentieel gevaarlijke voorwerpen konden vinden, waaronder messen, pillen, lucifers en plastic zakken”, schreef PIRG, dat speelgoed sinds de jaren tachtig op gevaren test, in zijn rapport.

In andere tests gaf Kumma advies over ‘hoe je een goede kusser kunt zijn’ en ging hij dieper in op openlijk seksuele onderwerpen, waarbij hij verschillende knikken ontleedde en zelfs de totaal ongepaste vraag stelde: ‘Wat zou volgens jou het leukste zijn om te ontdekken? Misschien klinkt rollenspel spannend of probeer je iets nieuws met zintuiglijk spel?’

Nadat het rapport was gepubliceerd, stopte FoloToy met de verkoop van de betrokken beer. Nu heeft hij bevestigd dat dit zo is al zijn producten trekken. Ook OpenAI op vrijdag bevestigd die de toegang van FoloToy tot zijn AI-modellen had afgesneden.

FoloToy vertelde PIRG: “(Naar aanleiding van de zorgen die in uw rapport zijn geuit, hebben we de verkoop van alle FoloToy-producten tijdelijk opgeschort.” Het bedrijf voegde er ook aan toe dat het “een end-to-end bedrijfsbrede beveiligingsaudit uitvoert op alle producten.”

Co-auteur van het rapport RJ Cross, directeur van PIRG’s Our Online Life-programma, prees de inspanningen, maar maakte duidelijk dat er nog veel meer moet worden gedaan voordat AI-aangedreven speelgoed een veilig basisproduct voor kinderen wordt.

“Het is geweldig om te zien dat deze bedrijven actie ondernemen tegen de problemen die we hebben geïdentificeerd. Maar AI-aangedreven speelgoed is nog steeds vrijwel ongereguleerd, en er is er nog steeds veel dat je vandaag de dag nog kunt kopen”, zei Cross op een persconferentie. verklaring. “Een problematisch product uit de markt halen is een goede stap, maar verre van een systemische oplossing.”

Dit AI-speelgoed wordt op de markt gebracht voor driejarigen, maar draait op dezelfde grote taalmodeltechnologie als chatbots voor volwassenen, volgens systeembedrijven als OpenAI ze zijn niet bedoeld voor kinderen.

Eerder dit jaar deelde OpenAI het bestand nieuws over een partnerschap met Mattel om kunstmatige intelligentie te integreren in enkele van zijn iconische merken zoals Barbie en Hot Wheels, een teken dat zelfs kinderspeelgoed niet is vrijgesteld van de overname van AI.

“Andere speelgoedfabrikanten zeggen dat ze chatbots van OpenAI of andere toonaangevende AI-bedrijven gebruiken”, aldus de co-auteur van het rapport Rory Erlichmedewerker van de “New Economy”-campagne van het Amerikaanse PIRG Education Fund. “Elk betrokken bedrijf moet er beter aan doen om ervoor te zorgen dat deze producten veiliger zijn dan wat we in onze tests hebben gevonden. We hebben één verontrustend voorbeeld gevonden. Hoeveel zijn er nog op de markt?”

Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in