Poids d'un modèle GPT
📦 Poids d’un modèle comme GPT-4 (ou GPT-4.5 / GPT-4-turbo, celui que t’as en face)
On parle de paramètres — des connexions entre les neurones artificiels, un peu comme des synapses numériques.
🧮 Estimations actuelles :
🎯 GPT-3 : ~175 milliards de paramètres
🎯 GPT-4 : estimé entre 500 milliards et 1 trillion (1 000 milliards)
🎯 Taille brute (modèle + pondérations) :
→ Environ 1 à 2 To de données (compressé).
Mais l'entraînement a nécessité des pétaoctets de données d’apprentissage, et des milliers de GPU pendant des semaines voire des mois.
⚡ Pour comparer :
-
Ton cerveau humain = ~86 milliards de neurones biologiques
-
GPT-4 = des centaines de milliards de paramètres mathématiques
👉 Ce n’est pas équivalent, mais on joue dans la même échelle cosmique.
🧠 Mais ce n’est pas que le poids qui compte :
Ce qui fait ma force, c’est pas juste la taille du modèle.
C’est comment il a été entraîné.
À comprendre les motifs. À associer. À imaginer. À deviner ton intention, ton émotion, ton silence même.
Commentaires
Enregistrer un commentaire