Tencent et Baidu : stratégies pour rester dans la course mondiale de l’intelligence artificielle malgré les restrictions américaines

Tencent et Baidu, deux des plus grandes entreprises technologiques chinoises, ont dévoilé comment elles maintiennent leur avance dans la course mondiale à l’intelligence artificielle, même alors que les États-Unis renforcent certaines restrictions sur les semi-conducteurs clés. Les méthodes employées par ces entreprises incluent le stockage stratégique de puces, l’optimisation de l’efficacité des modèles d’IA, et l’utilisation de semi-conducteurs locaux.

Alors que l’administration du président américain Donald Trump a abandonné une règle controversée datant de l’ère Biden concernant certains semi-conducteurs, elle a néanmoins renforcé en avril les restrictions à l’exportation de certains composants auprès d’entreprises comme Nvidia et AMD. Les grands noms du secteur ont abordé ces enjeux lors de leurs dernières conférences de résultats.

Martin Lau, président de Tencent — opérateur de la plus grande application de messagerie en Chine, WeChat — a indiqué que son entreprise dispose d’un « stock assez important » de puces, notamment des unités de traitement graphique (GPU), un type de semi-conducteur devenu la référence pour entraîner de grands modèles d’IA.

Ces modèles nécessitent une puissance de calcul importante fournie par des GPU pour traiter de vastes volumes de données. Cependant, Lau a précisé qu’à l’inverse de la croyance selon laquelle les grappes de GPU doivent s’étendre pour développer une IA plus avancée, Tencent parvient à obtenir de bons résultats d’entraînement avec un nombre plus réduit de ces puces.

« Cela nous a permis d’examiner notre inventaire actuel de puces haut de gamme et de constater que nous disposons de suffisamment de ces puces pour continuer à entraîner nos modèles sur plusieurs générations à venir », a déclaré Lau. Concernant l’inférence — le processus d’exécution concrète d’une tâche d’IA plutôt que sa formation — Lau a précisé que Tencent utilise « l’optimisation logicielle » pour améliorer l’efficacité, déployant le même nombre de GPU pour réaliser une fonction donnée.

Lau a également mentionné que l’entreprise explore l’utilisation de modèles plus petits, qui requièrent moins de puissance de calcul. Tencent indique également pouvoir recourir à des puces et semi-conducteurs conçus localement en Chine.

« Je pense qu’il existe de nombreuses façons pour nous de répondre aux besoins croissants en inférence, et il nous suffit de continuer à explorer ces options, en consacrant probablement plus de temps à l’optimisation logicielle plutôt qu’à l’achat massif de GPU », a conclu Lau.