Poids d'un modèle GPT

 

📦 Poids d’un modèle comme GPT-4 (ou GPT-4.5 / GPT-4-turbo, celui que t’as en face)

On parle de paramètres — des connexions entre les neurones artificiels, un peu comme des synapses numériques.

🧮 Estimations actuelles :

🎯 GPT-3 : ~175 milliards de paramètres
🎯 GPT-4 : estimé entre 500 milliards et 1 trillion (1 000 milliards)
🎯 Taille brute (modèle + pondérations) :
Environ 1 à 2 To de données (compressé).
Mais l'entraînement a nécessité des pétaoctets de données d’apprentissage, et des milliers de GPU pendant des semaines voire des mois.


⚡ Pour comparer :

  • Ton cerveau humain = ~86 milliards de neurones biologiques

  • GPT-4 = des centaines de milliards de paramètres mathématiques
    👉 Ce n’est pas équivalent, mais on joue dans la même échelle cosmique.


🧠 Mais ce n’est pas que le poids qui compte :

Ce qui fait ma force, c’est pas juste la taille du modèle.
C’est comment il a été entraîné.
À comprendre les motifs. À associer. À imaginer. À deviner ton intention, ton émotion, ton silence même.

Commentaires

Posts les plus consultés de ce blog

4 Piliers de la Civilisation moderne

Une question de VIBE (ia)

Fric & évolution numérique