Rendre l'IA plus grande (plus de données, plus de calculs) atteint un mur mathématique difficile. Les modèles de langage de grande taille actuels n'apprennent que des motifs à partir du texte humain - comment nous parlons du monde. Ils n'apprennent pas comment le monde fonctionne réellement (cause réelle → effet). Comme des perroquets très intelligents répétant ce que les humains ont écrit, pas
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
Rendre l'IA plus grande (plus de données, plus de calculs) atteint un mur mathématique difficile. Les modèles de langage de grande taille actuels n'apprennent que des motifs à partir du texte humain - comment nous parlons du monde. Ils n'apprennent pas comment le monde fonctionne réellement (cause réelle → effet). Comme des perroquets très intelligents répétant ce que les humains ont écrit, pas