Home Nieuws Heeft NTT de langverwachte quantum computing-revolutie veroorzaakt?

Heeft NTT de langverwachte quantum computing-revolutie veroorzaakt?

27
0
Heeft NTT de langverwachte quantum computing-revolutie veroorzaakt?

De afgelopen tien jaar heeft kwantumcomputing moeite gehad om een ​​evenwicht te vinden tussen belofte en bruikbaarheid. Hoewel de meest geavanceerde systemen ter wereld technische wonderen blijven, worden ze geplaagd door dezelfde tekortkoming: de kwetsbaarheid van qubits – de fundamentele eenheden van kwantumdata – en de delicate hardware die nodig is om ze te controleren. Eén enkele fluctuatie kan bijvoorbeeld een kwantumtoestand doen instorten, waardoor een berekening ongeldig wordt.

De meeste kwantumsystemen zijn ook afhankelijk van grootschalige koeling, kouder dan de diepe ruimte, waarbij cryogene rekken vaak meerdere kamers in beslag nemen. Het opschalen van kwantumsystemen vereist een exponentiële stijging van de kosten, het energieverbruik en de stabiliteit van het milieu. Terwijl de VN dus 2025 als jaartal heeft aangewezen Internationaal Jaar van de kwantumwetenschap en -technologieOndanks al zijn wetenschappelijke betekenis blijft het commerciële traject van quantum beperkt.

Maar het Japanse conglomeraat Nippon Telegraph and Telephone Corp. (NTT) probeert deze vergelijking te herschrijven. In samenwerking met de in Japan gevestigde ontwikkelaar van kwantumtechnologie OptQC probeert NTT de huidige orthodoxie te doorbreken door middel van zogenaamde optische kwantumcomputing, waarbij fotonen in plaats van elektrische stromen worden gebruikt om berekeningen uit te voeren. Omdat fotonen minder warmte genereren dan op elektronen gebaseerde systemen en zonder weerstand kunnen reizen, verbruiken deze systemen veel minder energie.

NTT stelt dat optische systemen sneller en energiezuiniger kunnen zijn en daarmee de basis kunnen vormen voor groener en duurzamer computergebruik. “Deze combinatie versnelt niet alleen de rekencapaciteit, maar vermindert ook de impact op het milieu, waardoor kwantumtechnologie de basis wordt voor een duurzame digitale toekomst”, zegt Shingo Kinoshita, SVP en hoofd R&D-planning bij NTT.

In plaats van te vertrouwen op koelsystemen, maakt het ontwerp van NTT gebruik van lichtbronnen en foutcorrectietechnologieën die zijn ontwikkeld als onderdeel van het Innovative Optical and Wireless Network (IOWN) -initiatief.

De bredere industriële strategie van Japan schuilt net onder de oppervlakte van dit partnerschap. Nu de Verenigde Staten en China verwikkeld zijn in een geopolitieke strijd om kwantumsuprematie, positioneert het Japanse fotonische model zichzelf als een alternatief: een model dat energie-efficiëntie en maakbaarheid bevoordeelt boven extreme milieutechniek.

“Vandaag is de energievoetafdruk van NAAR DE ontpopt zich als een mondiale uitdaging. Optische kwantumcomputing verwerkt informatie met licht, waardoor een aanzienlijk lager energieverbruik en een schaalbare groei van qubits mogelijk worden gemaakt via optische multiplexing”, zegt Kinoshita.

Een wegenkaart van een miljoen qubit

De aanpak bouwt voort op een reeks snelle wetenschappelijke doorbraken in het Japanse kwantum-ecosysteem.
Het afgelopen jaar onthulde NTT, samen met RIKEN, Fixstars Amplify, de Universiteit van Tokio en het National Institute of Information and Communications Technology, ’s werelds eerste optische kwantumcomputerplatform voor algemeen gebruik dat berekeningen kan uitvoeren zonder enige externe koeling.

Het volgende platform past in één kamer, een prestatie waar veel grote ontwikkelaars van kwantumsystemen niet op kunnen bogen.

NTT en OptQC hebben een vijfjarenplan geschetst dat moet leiden tot de mijlpaal van 2030. Gedurende het eerste jaar zullen de bedrijven technische studies uitvoeren en beginnen met co-design door de eerste use cases met externe partners te identificeren. In het tweede jaar is het de bedoeling om complete ontwikkelomgevingen voor hardware en software te creëren.

In het derde jaar is het van plan om zakelijke gebruiksscenario’s te gaan testen, zoals de ontwikkeling van geneesmiddelen, financiële optimalisatie, materiaalkunde en klimaatmodellering. De laatste fase zal zich richten op het opschalen van het systeem om miljoenen qubits te bereiken en het betrouwbaar genoeg te maken om gebruiksscenario’s in de echte wereld aan te kunnen, waardoor de technologie wordt voorbereid voor adoptie door bedrijven, overheden en industrieën.

Het aantal qubits moet in de duizenden lopen voordat quantum computing de huidige mogelijkheden van kunstmatige intelligentie kan overtreffen. In tegenstelling tot klassieke bits die worden gebruikt in computersystemen voor algemene doeleinden, die bestaan ​​als 0s of 1s, kunnen qubits in meerdere toestanden tegelijk bestaan, waardoor complexe berekeningen exponentieel sneller kunnen worden verwerkt.

“De visie van 1 miljoen qubits in 2030 gaat niet alleen over prestaties, het herdefinieert hoe we geavanceerde computing afstemmen op planetaire grenzen”, zegt Kinoshita. “Op de korte termijn, aangezien we streven naar 10.000 qubits in 2027, zal de eerste impact binnen de communicatie-infrastructuur van NTT plaatsvinden.”

De fotonische weddenschap van Japan om kunstmatige intelligentie te verbeteren

Naarmate AI-modellen in omvang en complexiteit toenemen, is de vraag naar simulatie, optimalisatie en hoogdimensionale probleemoplossing ook exponentieel toegenomen. NTT zegt dat fotonische kwantumsystemen essentiële versnellers zullen worden voor kunstmatige intelligentie en telecommunicatienetwerken van de volgende generatie, zoals 6G.

In klassieke systemen reizen elektrische signalen door halfgeleiderprocessors. Fotonische systemen vervangen deze elektronen door licht en verzenden informatie via eigenschappen zoals fotonaantal, polarisatie en amplitude.

Praktische commerciële kwantumcomputers vereisen echter een schaal van 1 miljoen logische qubits, samen met betrouwbare kwantumfoutcorrectie, een mechanisme dat onmerkbare fouten die voortdurend door de qubits worden gemaakt, detecteert en corrigeert. De machines van vandaag, zelfs de meest geavanceerde systemen van IBM, Google en anderen, vallen ordes van grootte onder die drempel en blijven uiterst gevoelig voor omgevingsstoringen.

NTT beweert dat fotonica een gamechanger is. “Het bereiken van 1 miljoen qubits in 2030 en de daaropvolgende stap naar massa-implementatie zullen een robuuste toeleveringsketen vereisen. Het realiseren van hoogwaardige kwantumlichtbronnen en het verbeteren van de opbrengst bij precisieproductie zullen cruciale stappen zijn”, legt Kinoshita uit. In wezen betekent dit dat NTT in staat moet zijn om op betrouwbare wijze belangrijke componenten, zoals hoogwaardige lichtbronnen, te produceren en de productieopbrengsten te verbeteren, zodat de hardware op schaal kan worden gebouwd.

“Tegen 2030, met 1 miljoen qubits, zal de reikwijdte zich uitbreiden tot buiten de telecommunicatie”, voegt hij eraan toe. “NTT is van plan deze kansen te verkennen via partnerschappen met leiders in de chemische, financiële en industriële sectoren.”

De mondiale inzet van een fotonische strategie

Dit is niet de eerste poging tot kwantumhardware op kamertemperatuur, aangezien bedrijven als het in Sydney gevestigde Quantum Brilliance ook cryogene-vrije architecturen nastreven. Quantum Brilliance richt zich op edge- en datacenterimplementaties met compacte, op fotonen geïnspireerde diamantapparaten, terwijl Atom Computing, gevestigd in Berkeley, Calfornia, grootschalige systemen op kamertemperatuur bouwt die neutrale atomen gebruiken.

“Wij geloven echt dat optisch bestuurbare neutrale atomaire qubits een niveau van flexibiliteit en bruikbaarheid mogelijk maken voor de uitdaging van het besturen van miljoenen qubits met hifi-signalen met lage overspraak bij kamertemperatuur”, zegt Ben Bloom, oprichter en CEO van Atom Computing.

Maar NTT stelt dat fotonen, en niet elektronen of atomen, een architectuur bieden die in staat is echte commerciële schaal te bereiken. Zijn stelling is simpel: licht is intrinsiek stabieler, genereert minder warmte en is uiteindelijk beter produceerbaar dan welk op materie dan ook gebaseerd systeem. “Deze verschuiving transformeert quantum computing van een nichetechnologie naar een algemeen beschikbare hulpbron”, zegt Kinoshita.

Deskundigen waarschuwen echter dat de op licht gebaseerde computationele route onopgeloste uitdagingen met zich meebrengt.

“Fotonica staat voor grote uitdagingen die vaak over het hoofd worden gezien in het verhaal over kamertemperatuur”, zegt Yuval Boger, Chief Commercial Officer bij het in Boston gevestigde QuEra Computing. “Je hebt grootschalige, vrijwel perfecte bronnen en detectoren nodig, evenals efficiënte foton-foton-interacties, die niet van nature voorkomen en complexe optische elementen vereisen. De technische complexiteit van het bouwen van een fouttolerante fotonische kwantumcomputer met duizenden high-fidelity qubits is enorm.”

Als NTT op koers blijft, zou ’s werelds eerste miljoen-qubit-systeem afkomstig kunnen zijn van een in Tokio gevestigd optisch platform op kamertemperatuur, ontworpen voor gebruik in de echte wereld, inclusief moleculaire simulatie voor de ontdekking van geneesmiddelen en materiaalkunde, modellering van financiële risico’s en optimalisatie van de productie.

“Naast technologie blijven mondiale coördinatie voor gespecialiseerde materialen en veerkracht tegen geopolitieke risico’s essentieel”, zegt Kinoshita. “Wanneer deze systemen kunnen functioneren in standaard IT-omgevingen met een ultralaag stroomverbruik en integratie op rackschaal, zullen bedrijven kosteneffectieve prestaties zien, zullen overheden het strategische voordeel onderkennen en zal het publiek tastbare voordelen ervaren, zoals groenere netwerken en snellere innovatie. Dat moment zal de transitie van quantum van experimenteel naar essentieel markeren.”


Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in