J’ai plongé en profondeur avec le co-fondateur et PDG de Covariant, Peter Chen, chez ProMat la semaine dernière. Le timing était parfait ou terrible selon à qui vous demandez. Je suis sûr que les comms de la startup sont ravis que j’écrive une suite une semaine plus tard à l’occasion d’un nouveau tour de table.

Quoi qu’il en soit, 75 millions de dollars est un chiffre difficile à ignorer, d’autant plus que l’extension de la série C porte l’augmentation totale de la société d’intelligence artificielle à 222 millions de dollars. Les investisseurs existants Radical Ventures et Index Ventures ont mené la ronde, qui comprend également des investisseurs de retour (l’Office d’investissement du régime de pensions du Canada et Amplify Partners) et de nouveaux investisseurs (Gates Frontier Holdings, AIX Ventures et Northgate Capital). La ronde s’ajoute à une série C de 80 millions de dollars annoncée en juillet 2021.

« Cet investissement nous permet de développer davantage le cerveau covariant en tant que modèle de base plus performant et d’appliquer le cerveau covariant à encore plus de cas d’utilisation dans une grande variété de secteurs », a déclaré Chen à fr.techtribune.net. « Alors que la demande de commerce électronique continue de croître et que la résilience de la chaîne d’approvisionnement devient plus importante, nous avons fait d’énormes progrès avec les détaillants et les fournisseurs de logistique mondiaux, et nous sommes impatients de révéler bientôt plus de détails sur ces partenariats.

J’ai également eu droit à une démonstration de la technologie de Covariant lors du salon le mois dernier. C’est assez impressionnant quand on sait ce qui se passe sous le capot pour alimenter son picking et son placement. Au cœur du jeu logistique se trouve le cerveau covariant, qui construit une base de données massive de tailles, de formes et de matériaux potentiels d’emballages basés sur des choix réels.

Dans notre conversation, Chen a utilisé l’IA générative/ChatGPT comme analogie. C’est plus qu’un simple lien ténu avec le dernier cycle de battage médiatique, car trois des quatre co-fondateurs de l’équipe ont un lien direct avec OpenAI.

Publicité

Chen dit :

Avant le récent ChatGPT, il existait de nombreuses IA de traitement du langage naturel. Recherche, traduction, détection de sentiments, détection de spam – il y avait beaucoup d’IA en langage naturel. L’approche avant GPT consiste, pour chaque cas d’utilisation, à former une IA spécifique, en utilisant un sous-ensemble de données plus petit. Regardez les résultats maintenant, et GPT abolit fondamentalement le domaine de la traduction, et il n’est même pas formé à la traduction. L’approche du modèle de base est essentiellement, au lieu d’utiliser de petites quantités de données spécifiques à une situation ou d’entraîner un modèle spécifique à une circonstance, formons un grand modèle généralisé de base sur beaucoup plus de données, de sorte que l’IA est plus généralisée.

Le financement servira à poursuivre le déploiement du système de Covariant auprès des détaillants et des entreprises de logistique.

5/5 - (22 votes)
Publicité
Article précédentDaredevil et Deadpool ont une relation antagoniste dans Marvel Comics
Article suivantVitamix 5200, téléviseur LG C2 4K, SSD Samsung et SK Hynix, et plus – Ars Technica
Berthe Lefurgey
Berthe Lefurgey est une journaliste chevronnée, passionnée par la technologie et l'innovation, qui fait actuellement ses armes en tant que rédactrice de premier plan pour TechTribune France. Avec une carrière de plus de dix ans dans le monde du journalisme technologique, Berthe s'est imposée comme une voix de confiance dans l'industrie. Pour en savoir plus sur elle, cliquez ici. Pour la contacter cliquez ici

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici