Campus D'Ia Quantique De Google

Le nouveau campus Quantum AI de Google à Santa Barbara, en Californie, emploiera des centaines de chercheurs, d’ingénieurs et d’autres membres du personnel.

Stephen Shankland / CNET

Google a commencé à créer un nouveau et plus grand l’informatique quantique centre de recherche qui emploiera des centaines de personnes pour concevoir et construire un ordinateur quantique largement utile d’ici 2029. C’est le dernier signe que la concurrence pour transformer ces nouvelles machines radicales en outils pratiques s’intensifie à mesure que des acteurs établis comme IBM et Honeywell rivalisent avec les startups d’informatique quantique.

Le nouveau Campus Google Quantum AI se trouve à Santa Barbara, en Californie, où le premier laboratoire d’informatique quantique de Google emploie déjà des dizaines de chercheurs et d’ingénieurs, a déclaré Google lors de son conférence annuelle des développeurs d’E / S mardi. Quelques chercheurs initiaux y travaillent déjà.

L’un des principaux postes du nouveau centre de calcul quantique de Google est de rendre plus fiables les éléments fondamentaux du traitement des données, appelés qubits, a déclaré Jeff Dean, vice-président senior de Google Research and Health, qui a aidé à développer certaines des technologies les plus importantes de Google telles que la recherche, la publicité et l’intelligence artificielle. Les Qubits sont facilement perturbés par des forces extérieures qui font dérailler les calculs, mais la technologie de correction d’erreurs permettra aux ordinateurs quantiques de fonctionner plus longtemps afin qu’ils deviennent plus utiles.

« Nous espérons que le calendrier sera que dans l’année ou les deux prochaines, nous serons en mesure d’avoir une démonstration d’un qubit de correction d’erreur », a déclaré Dean à CNET lors d’un briefing avant la conférence.

L’informatique quantique est un domaine prometteur qui peuvent apporter une grande puissance sur des problèmes complexes, comme le développement de nouveaux médicaments ou matériaux, qui enlisent les machines classiques. Les ordinateurs quantiques, cependant, reposent sur les lois physiques étranges qui régissent les particules ultra-petites et qui ouvrent des algorithmes de traitement entièrement nouveaux. Bien que plusieurs géants de la technologie et startups poursuivent des ordinateurs quantiques, leurs efforts restent pour l’instant des projets de recherche coûteux qui n’ont pas prouvé leur potentiel.

Googles New Mega Supercomputers Revealed With Quantum Updates Mp4 00 01 27 20 Still001


Lecture en cours:
Regarde ça:

Google présente son laboratoire d’informatique quantique à I / O


6:49

«Nous espérons créer un jour un ordinateur quantique avec correction d’erreurs», a déclaré Sundar Pichai, PDG de la société mère de Google Alphabet, lors du discours d’ouverture de Google I / O.

La correction d’erreurs combine de nombreux qubits du monde réel en un seul qubit virtuel fonctionnel, appelé qubit logique. Avec l’approche de Google, il faudra environ 1000 qubits physiques pour créer un seul qubit logique capable de suivre ses données. Ensuite, Google s’attend à avoir besoin de 1000 qubits logiques pour effectuer un véritable travail informatique. Un million de qubits physiques est loin des ordinateurs quantiques actuels de Google, qui n’en ont que des dizaines.

L’une des priorités du nouveau centre est d’amener plus de travail de fabrication d’ordinateurs quantiques sous le contrôle de Google, ce qui, combiné à une augmentation du nombre d’ordinateurs quantiques, devrait accélérer les progrès.

Google met en lumière son travail d’informatique quantique à Google I / O, une conférence destinée principalement aux programmeurs qui doivent travailler avec le logiciel de téléphonie Android du géant de la recherche, Navigateur Web Chrome et autres projets. La conférence donne à Google une chance de montrer une infrastructure à l’échelle mondiale, de raffermir sa réputation d’innovation et généralement de geek. Google utilise également l’émission pour vanter la nouvelle technologie d’IA qui rapproche un peu les ordinateurs de l’intelligence humaine et pour fournir des détails sur son matériel personnalisé pour accélérer l’IA.

En tant que l’un des meilleurs ingénieurs de Google, Dean est une force majeure dans l’industrie informatique, un rare exemple de programmeur à être présenté dans le magazine The New Yorker. Il a joué un rôle déterminant dans la création de technologies clés telles que MapReduce, qui a contribué à propulser Google au sommet de l’activité des moteurs de recherche, et TensorFlow, qui alimente son utilisation intensive de la technologie de l’intelligence artificielle. Il est maintenant confronté à des défis culturels et politiques, notamment départ public du chercheur en IA Timnit Gebru.

Accélérateurs TPU AI de Google

Lors des E / S, Dean a également révélé de nouveaux détails sur le matériel d’accélération de l’intelligence artificielle de Google, des processeurs personnalisés qu’il appelle des unités de traitement de tenseur. Dean a décrit comment l’entreprise accroche 4096 de ses TPU de quatrième génération en un seul pod qui est 10 plus puissant que les pods précédents avec des puces TPU v3.

« Un seul pod représente une puissance de calcul incroyablement importante », a déclaré Dean. «Nous en avons déjà déployé beaucoup dans de nombreux centres de données différents, et d’ici la fin de l’année, nous prévoyons d’en déployer des dizaines». Google utilise les pods TPU principalement pour entraîner l’IA, le processus intensif en calcul qui génère les modèles d’IA qui apparaissent plus tard dans nos téléphones, haut-parleurs intelligents et autres appareils.

Les conceptions précédentes de pod AI avaient une collection dédiée de TPU, mais avec TPU v4, Google les connecte avec des lignes à fibre optique rapides afin que différents modules puissent être assemblés en un groupe. Cela signifie que les modules qui sont en panne pour maintenance peuvent facilement être contournés, a déclaré Dean.

Les pods TPU v4 de Google sont désormais destinés à son propre usage, mais ils seront disponibles pour les clients du cloud computing de la société plus tard cette année, a déclaré Pichai.

Processeurs Google Tpuv3

Les processeurs d’unité de traitement tensoriel de Google, utilisés pour accélérer le travail de l’IA, sont refroidis par liquide. Ce sont des processeurs TPU de troisième génération.

Stephen Shankland / CNET

L’approche a été profondément importante pour le succès de Google. Alors que certains utilisateurs d’ordinateurs se sont concentrés sur des équipements informatiques coûteux et ultra-fiables, Google a utilisé du matériel moins cher depuis ses débuts. Cependant, il a conçu son infrastructure de manière à pouvoir continuer à fonctionner même en cas de défaillance de certains éléments.

Google essaie également d’améliorer son logiciel d’intelligence artificielle avec une technique appelée modèle unifié multitâche, ou MUM. Aujourd’hui, des systèmes d’IA distincts sont formés pour reconnaître le texte, la parole, les photos et les vidéos. Google veut une IA plus large qui couvre toutes ces entrées. Un tel système reconnaîtrait, par exemple, un léopard, qu’il ait vu une photo ou entendu quelqu’un prononcer le mot, a déclaré Dean.

Rate this post
Publicité
Article précédentMass Effect: Guide du débutant en édition légendaire – Conseils essentiels pour les débutants
Article suivantLa silhouette de Samus repérée dans la bande dessinée Batman / Fortnite fait allusion à un ajout possible au jeu
Avatar De Violette Laurent
Violette Laurent est une blogueuse tech nantaise diplômée en communication de masse et douée pour l'écriture. Elle est la rédactrice en chef de fr.techtribune.net. Les sujets de prédilection de Violette sont la technologie et la cryptographie. Elle est également une grande fan d'Anime et de Manga.

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici