Home Nieuws Het adopteren van AI verhoogt de inzet voor gegevensbeveiliging

Het adopteren van AI verhoogt de inzet voor gegevensbeveiliging

2
0
Het adopteren van AI verhoogt de inzet voor gegevensbeveiliging

Afbeeldingen op transportonderwerpen en Getty Images

Belangrijkste punten:

  • Marktleiders hebben gezegd dat het toenemende gebruik van AI-agenten in de logistiek de risico’s op het gebied van beveiliging, bestuur en gegevenstoegang vergroot, die vóór de implementatie moeten worden aangepakt.
  • Leidinggevenden waarschuwden dat slechte datakwaliteit, onduidelijk eigendom en kwetsbare interfaces de betrouwbaarheid van modellen kunnen ondermijnen en openingen kunnen creëren voor ongeautoriseerde of kwaadwillige acties.
  • Experts zeggen dat bedrijven sterker toezicht, due diligence van leveranciers en training van werknemers nodig hebben om veilig gegevensbeheer te garanderen en de beperkingen en feilbaarheid van AI-systemen te beheersen.

(Blijf op de hoogte van transportnieuws: Ontvang TTNews in uw inbox.)

Naarmate AI-agenten e-mails beginnen te verzenden, bestellingen verwerken en prijsaanbevelingen geven, blijft het belang van gegevensbeveiliging, governance en systeemtoegang groeien. Marktleiders zeiden dat deze problemen vanaf het begin moeten worden aangepakt.

AI belooft aanzienlijke verbeteringen in de workflow, maar breidt ook de paden uit waarlangs gevoelige informatie zich verplaatst.

“Om agententools te laten werken, moeten organisaties e-mail, telefoongesprekken en voicemail toegankelijk maken”, zegt Eric Rempel, Chief Innovation Officer van Redwood Logistiek. “Dit opent de mogelijkheid van dataherkomst en -beheer, en er is een veiligheidsaspect.”

Jonah McIntire, hoofd product en technologie van Trimble, zegt dat AI-agenten moeten worden beschermd tegen ongeautoriseerde verzoeken.

“Als je een agent hebt die e-mails kan ontvangen, is het net een huis met de deur open”, zei hij. “Er kan van alles op worden gegooid, en hoe meer de wereld weet wat die agent kan doen, hoe meer er op wordt gegooid.”

Naarmate de rol van AI groeit, moeten ook het toegangsbeheer en het toezicht toenemen.

“Iemand met kwade bedoelingen zou een agent kunnen vragen iets snode dingen te doen,” zei McIntire. ‘Je zou zo’n agent elk percentage kunnen laten opzoeken… en het gewoon met vijf punten kunnen verhogen. Je zou ongelooflijke corruptie hebben.’

Voordat wagenparken of logistieke bedrijven AI zelfs maar in hun activiteiten introduceren, hebben ze schone, consistente en betrouwbare gegevens nodig als basis.

Levi Sorenson, hoofd van de AI-strategie voor technologie- en compliancebedrijf Fleetworthy, zei dat de meeste vloten de omvang van deze uitdaging onderschatten.

“Er zijn zoveel gegevens, en het is niet allemaal goed”, zei hij. “Er is een heel proces voor nodig om het op te schonen en te promoten in bekende datasets, zodat het door de hele organisatie kan worden gebruikt.”

Fleetworthy maakt intern gebruik van gelaagde datasets en zal projecten pauzeren als de gegevens van een klant te oud of inconsistent zijn om betrouwbare modellering te ondersteunen.

“Hygiëne is geen magie, het is wiskunde,” zei Sorenson.

Marc El Khoury, CEO van een technologiegericht transportbedrijf Luchtvlootgenoemde belastinggegevens komen vaak onvolledig of tegenstrijdig aan, waardoor modelleren een uitdaging wordt.

“We hebben checks and balances gecreëerd om de informatie te valideren. Klopt het? Komt het overeen met wat we weten? Klopt het tarief? Het is erg moeilijk om goede modellen te bouwen als de brongegevens niet bruikbaar zijn.”

El Khoury zei dat veel van de AI-fouten die hij waarnam voordat hij Aifleet oprichtte, niet te wijten waren aan de modellen zelf, maar aan fundamentele operationele gegevens die te inconsistent waren om betrouwbare modellen te ondersteunen.

Hij voegde eraan toe dat een aanzienlijk bestuursrisico voortkomt uit softwaresystemen die ervan uitgaan dat de activiteiten volgens plan verlopen, wat in de transportsector vaak niet het geval is.

“Veel algoritmen negeren randgevallen”, zei El Khoury, eraan toevoegend dat elk AI-systeem dat in het vrachtvervoer wordt gebruikt “voortdurend beslissingen moet veranderen” om te voorkomen dat wagenparken vast komen te zitten in onveilige of onrealistische aannames.

Zelfs als systemen veilig zijn, kan de betrouwbaarheid falen als de onderliggende gegevens onvolledig of geïsoleerd zijn.

Om de interoperabiliteit in de hele sector te ondersteunen, heeft de Nationale vereniging voor motorvrachtverkeer werkt aan gemeenschappelijke applicatieprogrammeringsinterfaces zodat vervoerders, verladers, 3PL’s en TMS-aanbieders veilig en consistent gegevens kunnen uitwisselen, zegt Joe Ohr, Chief Operating Officer van NMFTA.

Gegevensbeveiliging hangt niet alleen af ​​van wat bedrijven intern doen, maar ook van wat hun leveranciers doen.

Keith Peterson, vice-president operations bij NMFTA, zegt dat kopers van AI-tools moeten weten hoe hun gegevens worden opgeslagen, of deze geïsoleerd zijn of gemengd met informatie van andere klanten, en of deze worden gebruikt om modellen te trainen.

“Zullen de gegevens openbaar beschikbaar zijn of zullen ze privé zijn?” vroeg hij.

Bovendien moet het data-eigendom duidelijk zijn. De geloofwaardigheid van leveranciers maakt deel uit van deze vergelijking.

Ahmed Ebrahim, vice-president strategische allianties bij McLeod Software, zegt dat externe AI-leveranciers vaak diepgaande toegang nodig hebben tot klantspecifieke datasets, wat het belang van goed gedefinieerde rollen en verantwoordelijkheden voor databeheer en modelgedrag vergroot.

“Het is verbazingwekkend hoeveel diepgang er nodig is om de gegevens van die specifieke klant te gebruiken en het AI-model voor hun omgeving te trainen”, zei hij.

Omdat data governance net zo goed over mensen gaat als over data, moeten werknemers worden getraind in wat wel en niet kan worden gedeeld, aldus Sorenson van Fleetworthy.

“Je wilt er zeker van zijn dat iemand niet per ongeluk klantenlijsten of andere dingen lekt waarvan je niet wilt dat ze openbaar worden gemaakt”, legde hij uit.

Maar zelfs de best bestuurde systemen zullen fouten maken, en Tom McLeod, CEO van McLeod, zei dat gebruikers voorzichtig moeten blijven. “Ga er niet vanuit dat AI onfeilbaar is. Het is belangrijk om te weten wat het wel en niet kan doen”, zei hij.

Wilt u meer nieuws? Luister hieronder naar de dagelijkse briefing van vandaag of ga hier voor meer informatie:

Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in