OpenAI vraagt externe contractanten om echte opdrachten en taken uit hun huidige of vorige banen te uploaden, zodat ze de gegevens kunnen gebruiken om de prestaties van de volgende generatie te evalueren Modellen voor kunstmatige intelligentievolgens gegevens van OpenAI en trainingsdatabedrijf Handshake AI verkregen door WIRED.
Het project lijkt deel uit te maken van de inspanningen van OpenAI om een menselijke basis te leggen voor verschillende taken, die vervolgens kunnen worden vergeleken met AI-modellen. In september lanceerde het bedrijf een nieuwe onderzoek proces voor het meten van de prestaties van zijn AI-modellen ten opzichte van menselijke professionals in verschillende sectoren. OpenAI zegt dat dit een belangrijke indicator is van de voortgang in de richting van het bereiken van AGI, een systeem voor kunstmatige intelligentie dat beter presteert dan mensen bij de economisch belangrijkste taken.
“We hebben mensen uit verschillende beroepen ingehuurd om te helpen bij het verzamelen van taken uit de echte wereld, gemodelleerd naar de taken die u in uw voltijdbanen uitvoerde, zodat we konden meten hoe AI-modellen op die taken presteerden”, luidt een vertrouwelijk OpenAI-document. “Neem langdurige of complexe werkstukken (uren of dagen+) die je in je beroep hebt gedaan, en maak er een taak van.”
OpenAI vraagt aannemers om taken te beschrijven die ze in hun huidige of vroegere banen hebben uitgevoerd en om praktijkvoorbeelden van uitgevoerd werk te uploaden, volgens een OpenAI-presentatie over het project gezien door WIRED. Elk van de voorbeelden moet “een concrete uitvoer zijn (geen samenvatting van het bestand, maar het daadwerkelijke bestand), zoals een Word-document, PDF, Powerpoint, Excel, afbeelding, repository”, aldus de presentatie. OpenAI zegt dat mensen ook fictieve werkvoorbeelden kunnen delen die zijn gemaakt om te laten zien hoe ze realistisch zouden reageren in specifieke scenario’s.
OpenAI en Handshake AI weigerden commentaar te geven.
Volgens de presentatie van OpenAI bestaan taken uit de echte wereld uit twee componenten. Er is het taakverzoek (wat iemands manager of collega hem heeft opgedragen te doen) en het op te leveren taak (het daadwerkelijke werk dat is geproduceerd als reactie op dat verzoek). Het bedrijf benadrukt in de instructies meerdere keren dat de voorbeelden die door aannemers worden gedeeld, het ‘echte werk op de werkvloer’ moeten weerspiegelen dat de persoon uitvoert.Eigenlijk Klaar.”
Een voorbeeld in de OpenAI-presentatie schetst een baan voor een “Senior Lifestyle Manager bij een luxe conciërgebedrijf voor zeer vermogende particulieren.” Het doel is om “een korte PDF-versie van twee pagina’s op te stellen van een overzicht van de 7-daagse jachtreis naar de Bahama’s voor een gezin dat daar voor de eerste keer naartoe reist.” Bevat aanvullende details over de interesses van het gezin en hoe het reisschema eruit zou moeten zien. Het ‘expert human deliverable’ laat vervolgens zien wat de aannemer in dit geval zou uploaden: een echte Bahama’s-reisroute gemaakt voor een klant.
OpenAI draagt contractanten op om intellectueel eigendom van bedrijven en persoonlijk identificeerbare informatie te verwijderen uit werkbestanden die ze uploaden. In een sectie genaamd ‘Belangrijke herinneringen’ vertelt OpenAI werknemers dat ze ‘persoonlijke informatie, eigendoms- of vertrouwelijke gegevens, materiële niet-openbare informatie (bijvoorbeeld interne strategie, niet-vrijgegeven productdetails) moeten verwijderen of anonimiseren.’
Een van de bestanden die door het WIRED-document worden bekeken, vermeldt een ChatGPT-tool genaamd “Superster-scrub‘, dat advies geeft over het verwijderen van gevoelige informatie.
Evan Brown, advocaat op het gebied van intellectueel eigendom bij Neal & McDevitt, vertelt WIRED dat AI-laboratoria die vertrouwelijke informatie van aannemers op deze schaal ontvangen, onderworpen kunnen worden aan claims voor verduistering van handelsgeheimen. Aannemers die documenten van hun vorige werkplekken aanbieden aan een AI-bedrijf, zelfs als ze worden geëlimineerd, lopen het risico de geheimhoudingsovereenkomsten van hun vorige werkgevers te schenden of bedrijfsgeheimen bloot te leggen.
“Het AI Lab stelt veel vertrouwen in zijn opdrachtnemers om te beslissen wat wel en niet vertrouwelijk is”, zegt Brown. “Als ze iets laten ontglippen, nemen de AI-labs dan echt de tijd om te bepalen wat wel en wat geen bedrijfsgeheim is? Het lijkt mij dat het AI-lab zichzelf ernstig in gevaar brengt.”



