OpenAI et Anthropic brûlent 65 milliards : l'IA coûte-t-elle trop cher pour durer ?

Dans le monde de l'IA, l’adage « dépenser pour gagner » atteint des sommets presque inimaginables. Les deux géants du secteur, OpenAI et Anthropic, prévoient de dépenser ensemble près de 65 milliards de dollars cette année rien que pour former et operate leurs modèles d’intelligence artificielle. C’est plus que ce qu’ils gagnent — et ce n’est que le début.

Selon des documents financiers obtenus par le Wall Street Journal, ces coûts pourraient s’envoler à 127 milliards de dollars l’année prochaine, puis atteindre près de 250 milliards d’ici 2029. Ces chiffres incluent à la fois l’training des modèles — la phase où ils apprennent à partir de données massives — et l’inférence, c’est-à-dire le processus par lequel ils répondent aux demandes des utilisateurs. Pour les deux entreprises, ces dépenses dépasseront leurs recettes pendant des années encore.

La différence avec les géants comme Alphabet ou Meta ? Eux ont des activités rentables — publicité, réseaux sociaux, cloud — qui subventionnent leurs ambitions en IA. OpenAI et Anthropic, eux, doivent raise capital pour brûler de l’argent à un rythme effréné. Alphabet et Meta devraient générer 334 milliards de dollars de trésorerie cette année. Leur marge d’erreur est immense. Pour les startups IA, chaque dollar compte.

Les investisseurs privés semblent prêts à parier gros — mais que se passera-t-il quand ces entreprises go public ? Leurs valorisations combinées dépassent déjà 1 200 milliards de dollars, soit plus de 2 % de la valeur du S&P 500. À titre de comparaison, Amazon n’était valorisé qu’à 430 millions lors de son introduction en Bourse en 1997. Et même Amazon perdait de l’argent. Mais jamais à cette échelle relative.

Certains y voient une folie. D’autres, une stratégie à long terme sur l’avenir du calcul et de l’productivité. Une chose est sûre : si ces modèles ne monétisent pas rapidement, la manne pourrait dry up . Anthropic mise sur une nouvelle coentreprise avec des fonds de capital-investissement pour pousser l’adoption de ses outils en entreprise. OpenAI cherche à augmenter l’utilisation de ChatGPT, même si chaque question coûte plus cher que prévu.

Entre la course aux capacités, la pénurie de puces, et la public scrutiny des gouvernements — certains États comme le Maine veulent bloquer la construction de nouveaux centres de données — la pression monte. Le modèle économique de l’IA reste une équation sans solution claire. Mais les paris sont déjà lancés.

Commentaires 8

  • Z
    ZapFinance

    65 milliards pour faire tourner des modèles qui don't earn d’argent… C’est du taux de brûlure de dingue. Même les années 2000 du boom Internet semblaient plus rationnelles.

  • N
    NicoIA

    Je bosse dans un centre de données dans le Maine, et les local residents sont furieux. Ils disent que ces usines à IA pompent toute l’électricité pendant que les factures explosent. La loi pourrait vraiment passer cet été.

  • C
    ClaireVC

    C’est facile de critiquer les pertes, mais Amazon a perdu de l’argent pendant des années. Ce qui compte, c’est la market position et la barrière à l’entrée. Si OpenAI s’accapare les entreprises maintenant, plus personne ne pourra rattraper.

  • P
    Pascal87

    Et les puces qui manquent ? J’ai commandé une workstation en février, livraison prévue en… octobre. Entre Nvidia, Broadcom, et Google qui stockent les TPU, on dirait une ruée vers l’or technologique.

  • L
    LéaProd

    Dans ma boîte, on utilise déjà le IA de Anthropic pour trier les e-mails clients. C’est fluide, mais je me demande combien ça costs per query . Le fournisseur ne nous a jamais donné ces chiffres.

  • O
    OldSchoolTech

    1999, c’était les sites web qui brûlaient des millions pour des livraisons de croquettes. Aujourd’hui, c’est des AI labs qui brûlent des milliards pour des chatbots. Même film, nouveau décors.

  • M
    MehdiEng

    L’coût d’inférence va baisser, c’est inévitable. Les optimisations logicielles, les puces dédiées, les modèles compressés — tout va dans ce sens. Le vrai bottleneck ? La consommation d’énergie des centres.

  • S
    SophieR

    Je suis fascinée par l’idée qu’on construise une technologie aussi puissante sans savoir comment elle pays for itself . C’est comme lancer une fusée sans savoir où elle atterrira.