La photonique s’avère être un problème difficile à résoudre
Le calcul croissant la puissance nécessaire pour former des modèles d’IA sophistiqués tels que ChatGPT d’OpenAI pourrait éventuellement se heurter à un mur avec les technologies de puces grand public.
Dans une analyse de 2019, OpenAI trouvé que de 1959 à 2012, la quantité d’énergie utilisée pour entraîner les modèles d’IA a doublé tous les deux ans, et que la consommation d’énergie a commencé à augmenter sept fois plus vite après 2012.
Cela cause déjà de la tension. Microsoft est aurait face à une pénurie interne de matériel de serveur nécessaire pour faire fonctionner son IA, et la rareté fait grimper les prix. CNBC, s’adressant à des analystes et à des technologues, estime le coût actuel de entraînement un modèle de type ChatGPT à partir de zéro pour plus de 4 millions de dollars.
Une solution au dilemme de la formation à l’IA qui a été proposée est les puces photoniques, qui utilisent la lumière pour envoyer des signaux plutôt que l’électricité utilisée par les processeurs conventionnels. Les puces photoniques pourraient en théorie conduire à des performances d’entraînement plus élevées car la lumière produit moins de chaleur que l’électricité, peut voyager plus rapidement et est beaucoup moins sensible aux changements de température et aux champs électromagnétiques.
Matière lumineuse, Lumière allumée, Informatique lumineuse, Intel et NTT font partie des entreprises développant des technologies photoniques. Mais alors que la technologie suscitait beaucoup d’enthousiasme il y a quelques années — et attirait beaucoup d’investissements — le secteur s’est sensiblement refroidi depuis lors.
Il y a diverses raisons à cela, mais le message général des investisseurs et des analystes qui étudient la photonique est que les puces photoniques pour l’IA, bien que prometteuses, ne sont pas la panacée qu’on croyait autrefois.