jbbourgoin a écrit : ↑mer. déc. 07, 2022 5:00 pm
Nous parlions d'entraînement sur parties réelles et d'auto-entraînement. Tu disais que l'auto-entraînement serait préférable pour la création artistique, et qu'il est regrétable que les modèles actuels utilise l'entraînement sur images réelles, et en théorie je suis entièrement d'accord.
je ne pense pas avoir dit que c'était préférable mais que c'était possible de le faire ainsi et que l'exemple d'alphaGo montre que ça peut donner des résultats impressionnants (alphaGo Zéro, la version auto-entrainée, bat la version de alphaGo qui a elle-même battu tous les grand maitres, 89 parties sur 100). Personne ne peut affirmer à priori que ce serait mieux, sauf en terme de question d'éthique pour la propriété intellectuelle des oeuvres.
Beaucoup de réserve car dans le milieu on dit que "there is no size to fit them all". En gros, il n'y a aucune approche qui resolve à priori tous les problèmes. Certaines approches sont connues pour être
en général plus performantes mais peuvent butter (ou être inutilement compliquées) sur des problèmes que des approches simples résolvent mieux.
jbbourgoin a écrit : ↑mer. déc. 07, 2022 5:00 pm
Là où je suis plus dubitatif c'est sur notre capacité à produire une puissance de calcul et les algorithmes suffisant à la production d'œuvres artistiques qui dépasse ce que l'on fait avec l'entraînement sur images réelles, vu la complexité infiniment supérieur que constitue une "œuvre artistique" comparativement à un jeu de go ou même une partie de Starcraft, qui sont des univers clos.
Il me semble avoir croisé un article sur Magic portant sur une étude démontrant que ce jeu serait le plus complexe du monde, devant le go (ce qui n'est guère étonnant), avec un programme incapable de déterminer les chances de succès d'un joueur en cours de partie (si mes souvenirs sont bons). Et pourtant on parle là-aussi d'un univers clos. Immense (plus de 20000 cartes) mais tout de même clos.
ok, posons
des chiffres pour voir :
- les échecs c'est 10^120 parties possibles
- le go c'est 10^768 parties possibles
- StarCraft2 est encore plus haut (j'ai pas trouvé d'évaluation) et ajoute une difficulté : tu joue sans l'ensemble des informations. C'est peut être un jeu "clos" (et encore, il faudrait définir ce que ça veut dire mathématiquement) mais c'est un jeu très différent des deux autres. Ajoute à ça que c'est du temps réel donc la machine doit calculer vite (et donc avoir des réseaux efficaces, ou alors des ressources monstrueuses).
Entre DeepBlue et AlphaGo il s'est passé 18 ans. 10 ans pendant lequel il ne se passent quasiment rien (1er "hiver" de l'IA) et dès 2012 on voit des algo battre des champions. En 2015 ce sont les matchs décisifs. Donc en gros 10 ans (dont quelques années de traversés du désert) pour sortir des algo "efficaces" (battre des 9ième dan de go, quand même) et 3 ans pour passer à la domination total, puis quelques mois pour battre l'algo qui était déjà le meilleur, par une approche radicalement différente (imitation vs auto-entrainement). Pour un jeu (le Go) qui n'aurait pas dû être battu avant plusieurs décennies (on parlait plus de 50 ans que de 20) parce que d'une complexité environ 650 fois supérieure, c'est pas mal.
Pour StarCraft c'est encore pire. Après le Go quand DeepMind veut s'y attaquer, les pros de StarCraft invoquent une augmentation de complexité encore plus élevée et l'information cachée (ce que fais l'autre) pour dire que ça prendra bien encore 20 ans. D'ailleurs, les expert de l'IA eux-même reconnaissaient que la stratégie de création de AlphaGo ne marcherait pas avec StarCraft, pour les raisons évoquées ci-dessus (et s'était vrai). 2 ans plus tard AlphaStar décroche le rang "Grand Maitre" et bat régulièrement les meilleurs joueurs mondiaux. Vous disiez ?

Après, pour être tout à fait honnête, c'est un mixte d'imitation et d'auto-entrainement (ce qui répond à ta remarque plus bas sur le "mix"). A ma connaissance, il n'y a pas de "AlphaStar Zero", mais quand même, c'était pas "pas possible"
Tout ça évidement ne démontre rien. Mais ça illustre bien que, tout comme il ne faut pas rêver sur les voitures volantes auto-pilotés dans 5 ans, il ne faut pas sous-estimé la capacité de l'humain à développer très rapidement S
kynet des IA qui résoudront des problèmes bien plus complexes que maintenant.
Cette remarque vaut d'ailleurs dans d'autres domaines. Il suffit de voir les progrès qu'on a fait en séquençage d'ADN ces 20 dernière années. La Loi de Moore a été explosée.
jbbourgoin a écrit : ↑mer. déc. 07, 2022 5:00 pm
Un roman, une peinture, une sculpture, ça n'a absolument rien à voir en terme de complexité si ce que l'on recherche ça n'est pas de l'imitation mais de la "création".
Je ne dis pas que ce que tu appelles de tes vœux est impossible, mais simplement que ça me paraît très très compliqué, et que si les modèles actuels fonctionnent par imitation ça n'est probablement pas un hasard.
Alors je n'appelle rien de mes voeux, hein ! je dis juste que techniquement c'est possible (et qu'il y aura bien quelqu'un pour le faire). J'ai une théorie
perso que j'appelle "Théorie de la lance et du bouclier"
Si on imagine deux tribus primitives qui font des recherches, il y en a bien une qui finira par s'engager sur la découverte de la lance. Parier que ça n'arrivera pas ou essayer d'interdire toute recherche internationalement sur ce sujet est vain. Dès qu'on apprend l'existence du concept de lance, il faut développer le bouclier pour y faire face.
Pour la complexité, cf au-dessus. J'ajoute ce que je disais dans un autre poste. L'IA "pense" (j'aime pas ce terme mais il est explicite) différemment de nous. Elle n'a pas forcément besoin de développer nos concepts pour arriver à faire des choses que nous faisons. On l'a vu avec AlphaGo qui a sortis des stratégies auquel aucun joueur n'avait jamais pensé (et des développement de jeu que tous les experts considéraient comme "faibles" à priori) ou avec les IA capable d'inventer un language secret. Peut être qu'une IA littéraire développera des éléments différent de "la scène" "le lieu" les protagonistes" "la trame". peut être que nous sommes passé par un chemin long et qu'il y a un raccourcis pour des "trucs" sans imagination mais avec une capacité de calcul monstrueuse. Pour l'instant c'est limité parce que les IA restent dépendantes de l'architecture et des données qu'on leur donne. Le jour où elles seront plus "autonome" pour se construire, on risque d'avoir des sacré surprises. Pour se donner une idée, j'aime bien
ce graphique. C'est bien sûr une hypothèse mais je la trouve plausible (en gros quand un IA sera aussi intelligente que l'humanité entière, une seconde plus tard, elle le sera infiniment plus).
Et je précise : je ne suis pas sûr de vouloir ça. Mais je pense que ça risque d'arriver, sauf accident. Ce qui nous amène à
jbbourgoin a écrit : ↑mer. déc. 07, 2022 5:00 pm
De plus il faut se rappeler que la puissance de calcul dont nous disposons n'est pas illimitée. Nous avons des contraintes physiques (sans parler des contraintes écologiques !).
Je me souviens d'un article de Jeff Bonwick portant sur le système de fichier ZFS (ce qui ne paraît pas bien passionnant dit comme ça !) et qui disait :
« Remplir un système de fichiers 128 bits dépasserait les limites quantiques de stockage de données. Vous ne pourriez pas remplir un espace de données 128 bits sans faire bouillir les océans.»
Totalement d'accord là-dessus

C'est à mon avis le frein (ou la barre de sécurité

) le plus important au développement de l'IA. A voir ce que ça va donner avec les ordinateurs quantiques, qui commencent à pointer le bout de leur nez...