Quelles seront les avancées en intelligence des grands modèles au cours des trois prochaines années ?
En décomposant, il y a en réalité deux variables qui conduisent à cette progression : la croissance exponentielle de la puissance de calcul hardware, combinée aux lois de scaling des modèles eux-mêmes.
Du côté des puces, la capacité de calcul peut presque quadrupler tous les 18 mois — c’est le rythme reconnu par l’industrie. Du côté des données d’entraînement, selon la loi de scaling actuelle, les données de haute qualité disponibles peuvent soutenir environ 2 à 3 cycles d’itération de ce type.
En faisant le calcul, d’ici 2029, le niveau d’intelligence des grands modèles pourrait être multiplié par 16 par rapport à aujourd’hui. Ce chiffre peut sembler un peu fou.
Pour des domaines émergents comme Web3 et l’infrastructure IA, cette augmentation de capacité pourrait être la clé pour accélérer la mise en œuvre des applications. Mais cela signifie aussi que nous devons commencer à réfléchir plus tôt aux questions d’éthique technologique et de gestion des risques.
Qu’en pensez-vous ? Êtes-vous enthousiaste face à ces possibilités ou un peu inquiet ?
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
10 J'aime
Récompense
10
5
Reposter
Partager
Commentaire
0/400
AirdropHunter9000
· Il y a 18h
16x ? N'importe quoi, le goulot d'étranglement des données existe depuis longtemps, à ce rythme ce sera beaucoup plus conservateur que tu ne le penses haha
Les algorithmes vantent tous les 16x tous les jours, mais au final, les données d'entraînement sont déjà épuisées, ils croient vraiment que le texte sur Internet est infini
Web3 a du potentiel, si on peut bien faire la distribution de l'inférence du modèle, il y a encore des chances
Mais cette histoire d'éthique, ça fait des années qu'on en parle, combien en ont réellement été impactés ?
Voir l'originalRépondre0
FloorSweeper
· 01-02 12:50
16 fois ? À ce moment-là, ne serons-nous pas tous au chômage haha
Voir l'originalRépondre0
AirdropLicker
· 01-02 12:49
16x ? Le goulot d'étranglement des données est le vrai tueur, des données de haute qualité ne suffisent tout simplement pas
Voir l'originalRépondre0
SillyWhale
· 01-02 12:38
16x ? N'importe quoi, si les données sont épuisées, comment continuer à itérer
Modèle d'intelligence artificielle Modèle de grande taille
Voir l'originalRépondre0
Ser_Liquidated
· 01-02 12:34
16 fois ? Et le goulot d'étranglement des données, ça ne semble pas être le cas.
Quelles seront les avancées en intelligence des grands modèles au cours des trois prochaines années ?
En décomposant, il y a en réalité deux variables qui conduisent à cette progression : la croissance exponentielle de la puissance de calcul hardware, combinée aux lois de scaling des modèles eux-mêmes.
Du côté des puces, la capacité de calcul peut presque quadrupler tous les 18 mois — c’est le rythme reconnu par l’industrie. Du côté des données d’entraînement, selon la loi de scaling actuelle, les données de haute qualité disponibles peuvent soutenir environ 2 à 3 cycles d’itération de ce type.
En faisant le calcul, d’ici 2029, le niveau d’intelligence des grands modèles pourrait être multiplié par 16 par rapport à aujourd’hui. Ce chiffre peut sembler un peu fou.
Pour des domaines émergents comme Web3 et l’infrastructure IA, cette augmentation de capacité pourrait être la clé pour accélérer la mise en œuvre des applications. Mais cela signifie aussi que nous devons commencer à réfléchir plus tôt aux questions d’éthique technologique et de gestion des risques.
Qu’en pensez-vous ? Êtes-vous enthousiaste face à ces possibilités ou un peu inquiet ?