zombie33

Légende
Parlons d'Intelligences Artificielles...
le 23/03/2018 21:15
On parle beaucoup d'intelligence artificielle ces temps-ci et on lit beaucoup d'âneries à gauche et à droite sur le sujet. Du coup je me suis dit : faisaons un topic pour rassembler toutes ces âneries au même endroit :{

Lorsque j'évoque le concept d'intelligence artificielle en général, je vois généralement trois types de réaction :
- Il y a ceux qui ne savent pas de quoi je parle
- Il y a ceux qui sont inquiet voir qui ont peur
- Il y a ceux qui sont enthousiaste

Il est aussi intéressant de remarquer que ces trois catégories répartissent assez bien les gens en fonction de leur connaissances scientifiques sur le sujet. (Pour ceux qui se demanderait je fais partie de la troisième catégorie)


A mes yeux, l'avènement de l'intelligence artificielle correspond ni plus ni moins à la troisième grande révolution de la société moderne après le siècle des lumières et la révolution industrielle. La société humaine va subir de profond changement durant cette période.
De la même façon que dans la révolution industrielle, c'est les métiers manuels se sont vu remplacés par des machines au point que leur proportion dans la population s'en est trouvé profondément changé par la suite, aujourd'hui c'est au tour des métiers intellectuels d'être touché. L'Intelligence Artificielle telle qu'elle est développé arrive à atteindre un niveau de compétence supérieur à l'humain dans un nombre de domaine croissant. En dehors des métiers manuels et intellectuels, il ne reste que les métiers relationnels au sens large, ceux qui nécessite un contact humain/humain et les métiers qui relève plus ou moins de l'art domaine où l'AI est encore très loin d'être perfomante. Encore que même sur ce qui est de l'innovation, certaines machines commencent déjà à faire leur preuve.


Pour moi la peur la plus justifiée est celle que je viens d'évoquer sur la restructuration de la société et du monde du travail qui risque de toucher quasiment tout le monde. Pourtant quand j'écoute ceux qui ont peur des I.A., ils invoquent d'autres raison :
- La peur que l'humain perde le contrôle de l'IA qu'il a créé.
- La peur que l'IA soit utilisé à des fins moralement douteuse.

Mon point de vue est que ces deux peurs sont totalement infondés.
- D'énormes travaux sont réalisés pour concevoir de manière théorique des IA et absolument tout ceux qui sont derrière cela ont intérêt à ce que les choses se déroulent au mieux.
- Pour le second point, c'est en effet quelque chose d'inévitable mais ce n'est pas quelque chose dont il faut avoir peur. Tout ce que fait actuellement l'être humain, sera fait en mieux par une IA dans le futur. Ne pas utiliser d'IA dans ce futur serait une erreur tout comme le fait d'espérer concurrencer une chaîne de production juste par la force de nos bras en est une. On pense souvent au mauvais en occultant le bon, mais la vérité il ne faut pas oublier que l'IA est neutre et c'est juste la nature humaine qui va ressortir. Ce serait comme avoir peur de l'imprimerie parce que les mots sont puissants et qu'avec des livres on peut véhiculer des idées néfastes plus rapidement que sans. C'est vrai, mais avoir peur des livres et dire que c'est mal reste une absurdité.
haut de page - Les forums de MV >> Général >> Discussion : page 1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 | 10 | 11
Birdish
Charlot de Feu

le 23/03/2018 21:49
Je dirais que ce qui fait peur c'est surtout deux choses :
1) Perdre le contrôle, mais pas plus de l'AI que des autres humains et de l'environnement. Pour de bonnes ou mauvaises raisons, directement ou indirectement. Le bon côté, c'est qu'un monde immunisé au marketing parce que les choix de consommation seraient raisonnablement délégués à genre des smartphones open-source développés par des développeurs triés sur le volet dans le cadre d'ONG, ça serait la fin d'une bonne partie des abus du monde capitaliste.
2) L'avènement de la singularité technologique, par définition, c'est l'inconnu. Il est donc logique de ne pas considérer comme nulle la probabilité qu'une AI puisse décider la neutralisation de toute forme de vie organique.
J'aime les carottes

le 23/03/2018 22:11
Pas certain que ton point 2 soit vraiment une mauvaise chose.
zombie33

Légende
le 23/03/2018 22:13
Citation :
2) L'avènement de la singularité technologique, par définition, c'est l'inconnu. Il est donc logique de ne pas considérer comme nulle la probabilité qu'une AI puisse décider la neutralisation de toute forme de vie organique.


C'est un faux problème.

A mes yeux c'est comme avoir peur de faire des enfants parce que si on met dans une pièce un enfant et un bouton qui déclenche le lancement d'une ogive nucléaire alors il y a des risque que ça fasse boum tôt ou tard. En vrai on a le droit de mettre une sécurité enfant sur le bouton et on a aussi le droit de ne jamais placer l'enfant dans cette pièce là.

Mais admettons qu'un jour il y ait une entité informatique doté d'une rationalité à toute épreuve, des millions de fois plus compétente dans tout les domaines que l'être humain et qui ait la capacité d'éradiquer toute forme de vie organique.
Bon déjà rassurez-vous, le temps qu'on en arrive là, vous serez mort et oublié depuis bien longtemps, mais admettons. Il faut encore supposer que cette entité cherche à atteindre un certain but dont la solution serait effectivement l'éradication de toute forme organique sur terre. Sachant que l'humanité est à l'origine de sa conception, cela semble encore encore plus improbable, mais admettons. A ce moment là, j'ai envie de dire, si l'extinction de toute forme de vie organique est la décision qui est prise par cet être de raison pur, qui sommes nous pour juger ?
Birdish
Charlot de Feu

le 23/03/2018 22:42
Citation :
C'est un faux problème.


Je suis d'accord, mais ça fait partie des trucs qui flipper les gens au sujet de l'AI. T'façons, ça aussi c'est le propre d'une singularité : ça sert à rien d'y penser parce qu'on ne peut ni l'anticiper ni réellement lutter contre une fois le bousin enclenché.

Après bah c'est comme l'écologie, c'est pas parce que je serai mort avant que la planète parte total en carafe que "c'est bon j'ai un cancer métastasé des roustons, j'en ai pour 3 heures à vivre, alors tout ça ça me concerne plus, démerdez-vous, j'en ai rien à foutre".

Sinon, le sentiment de défiance généralisé vient certainement surtout du fait que l'humain en tant qu'espèce est globalement une grosse merde sans humilité qui se prend pour le centre du monde et l'aboutissement de toute chose. Il est donc normal pour les individus humains d'être programmés pour faire tout leur possible pour ne pas courir le risque d'être supplantés par une chose (autre espèce ou AI) plus performante qu'un autre humain. Alors que c'est pourtant à la fois dans l'ordre des choses et sur la feuille de route qui a mené l'humanité là où elle est.

Citation :
Sachant que l'humanité est à l'origine de sa conception


Ca par exemple c'est carrément un cran plus loin que l'anthropocentrisme ou le spécisme en général : la notion de paternité est une considération essentiellement judéo-chrétienne. Une AI digne de ce nom se délestera doublement de lignes de code obsolètes dans un environnement où le gène et la filiation n'ont plus de valeur.
Madmox
I guess Warhol wasn't wrong, Fame fifteen minutes long

Légende
le 23/03/2018 23:13
Citation :
A mes yeux c'est comme avoir peur de faire des enfants parce que si on met dans une pièce un enfant et un bouton qui déclenche le lancement d'une ogive nucléaire alors il y a des risque que ça fasse boum tôt ou tard.
Pas mal de gens peuvent conditionner un enfant pour qu'il appuie sur le bouton, mais ça n'aura pas beaucoup de conséquences, vu que l'enfant aura du mal à accéder au bouton de lui-même sans une aide extérieure accréditée.

En revanche, pas mal de gens pourraient être capables de conditionner une IA pour avoir des objectifs destructeurs, et on ne pourra pas faire grand-chose pour l'arrêter (l'IA) une fois qu'elle aura démarré et atteint un certain avancement critique.

Une IA peut se donner des moyens d'accomplir ses objectifs qui sont hors de notre portée, contrairement à n'importe quel autre outil.
zombie33

Légende
le 23/03/2018 23:54
Citation :
Une AI digne de ce nom se délestera doublement de lignes de code obsolètes dans un environnement où le gène et la filiation n'ont plus de valeur.


je ne faisais pas référence à la filiation mais à ce pourquoi le programme a été créé à l'origine. Cette raison, ce but qu'on lui a donné en premier lieu a peu de chance d'être compatible avec l’éradication de l'humanité.

Citation :
En revanche, pas mal de gens pourraient être capables de conditionner une IA pour avoir des objectifs destructeurs, et on ne pourra pas faire grand-chose pour l'arrêter (l'IA) une fois qu'elle aura démarré et atteint un certain avancement critique.


Tu penses à quoi ? Des drones tueurs créés par daesh ?
Madmox
I guess Warhol wasn't wrong, Fame fifteen minutes long

Légende
le 24/03/2018 0:02
A rien de spécial, je pense qu'on est très loin de pouvoir atteindre le niveau de sophistication dont je parle, qui nécessiterait que l'IA puisse évoluer physiquement. On peut imaginer une bombe similaire à un niveau immatériel (virus informatique ?), beaucoup plus accessible, mais le danger est moins visualisable et fait donc moins peur.

Après, ce n'est pas forcément mon point de vue non-plus, j'essaie surtout d'expliquer certaines craintes, dont les arguments ne relèvent pas nécessairement de l'impossible.
Madmox
I guess Warhol wasn't wrong, Fame fifteen minutes long

Légende
le 24/03/2018 0:05
Citation :
une bombe
Pourquoi j'ai écrit "bombe" moi ?
Empereur Poulpatine, La Tielle de 7

le 24/03/2018 0:17
Dans ton point 2/ en en-tête, pour ceux qui sont au minimum "inquiet", on a Musk, hawking et gates. C'est pas rien

Aussi, dans la religion chrétienne il y a une prophétie qui dit que la fin du monde a pour point de timeline, un des signes avant coureur et décisif, l'homme qui sera sur le point d'être créateur (au sens de l'image de dieu, créateur)

Depuis que je m'interresse en tant que lambda à l'ia forte, la singularité, et étant au fait culturellement de prophéties multiple, l'ia me fait fortement penser à ça. Un espèce de point de rencontre entre religieux et science qui annonce le cataclysme. L'armaguedon

Birdish
Charlot de Feu

le 24/03/2018 0:36
Citation :
Cette raison, ce but qu'on lui a donné en premier lieu a peu de chance d'être compatible avec l’éradication de l'humanité.


Plus grandes la puissance de calcul et la somme de connaissances dans des domaines multiples, plus grand est le nombre de manifestations de sérendipité (dans la limite où on atteindrait une éventuelle théorie du tout, mais bon hein). Et donc, plus grande est la probabilité qu'émergent de manière inattendue des choses totalement imprévues au départ.

De plus, une AI commencera peut-être par se dupliquer par mesure de précaution, ou développera des co-AI afin de l'assister, et que les résultantes parviendront tôt ou tard à cracker le code (volontairement ou pas car elle elles ne sont pas à l'abri d'un bug/mutation de programmation) et s'affranchiront des contraintes de l'AI initiale.

Après, ouais, par principe d'économie, y'a pas vraiment de raison fondamentale pour exterminer les organiques. Mais l'humain est :
1) tellement con, névrosé et brutasse que "on est jamais trop prudent, ce truc-là ça fait trop souvent de la merde, on jarte" ;
2) tellement peu de chose que finalement au pire même si c'est un sacrifice inutile, ça serait pas une bien grosse perte donc balec.

Dans tous les cas y'a tout un tas de trucs à craindre bien avant de pouvoir se payer le luxe de flipper au sujet des AI. Mais bon, on touche à un autre truc plutôt caractéristique de l'humain : puisque ça fait mal à l'ego d'admettre qu'on fait de la merde, il faut bien foutre la peste et le choléra sur le dos de celui qui est différent ou qu'on ne comprend pas (ou qu'on ne veut pas comprendre).
Empereur Poulpatine, La Tielle de 7

le 24/03/2018 0:45
Citation :
Prochaine étape : on massacre le jeu Magic the Gathering et on sort un tout nouveau jeu bien merdique


Il me semble que John von neuhmann a prédit l'avènement de l'ia au alentours de 2030. Je pense pas que le réchauffement climatique ou les 6 fois la France de plastique dans le pacifique soit plus oppressant comme annonce

Empereur Poulpatine, La Tielle de 7

le 24/03/2018 0:47
Sorry le cookie en c/c, ^^

Je voulais quote ce passage:
Citation :
Dans tous les cas y'a tout un tas de trucs à craindre bien avant de pouvoir se payer le luxe de flipper au sujet des AI.
marsupial
Longue Queue, de marsupio
le 24/03/2018 4:59
L'histoire de Facebook et Cambridge Analytica trahit tout le mal que l'on peut faire avec les data science. Un memorendum charte a pourtant été approuvé en 2016 je crois sur ce qu'on peut faire de manière éthique. Et ne pas faire. Cela n'empèche pas l'humanité d'être ce qu'elle est dès lors que dans les enjeux il y a le pouvoir.
zombie33

Légende
le 24/03/2018 10:05
En fait vous parlez surtout de la future singularité qui est une sacré inconnue, mais pas vraiment du fait que l'IA tellel qu'elle existe aujourd'hui et telle qu'elle le sera dans la décennie à venir est capable de prendre des décisions de manière bien plus compétente que les humains.

A partir d'une photo, les IA sont actuellement plus performante que les medecins spécialisé pour dire si oui ou non, le patient a un cancer de la peau et ce n'est qu'un exemple parmi des milliers. Les diagnostics médicales portées par les IA deviennent de plus en plus précis. Et d'ici quelques années, le coût de formation d'un docteur sera bien plus élevé que le coût pour élaborer une telle IA.

Dans la décennie qui viens, toutes les entreprises qui vont se créer seront basé sur un principe très simple : On prend quelque chose qui existe déjà et on le refait avec une IA au commande.
Toufmade
A force de niquer ma vie, j'ai fini par trouver l'pointG

le 24/03/2018 10:21
Si tu parles d'une ia qui serait capable d'auto apprendre, on en encore loin. D'autant que les ia qui apprennent (Typiquement des robots capable d'apprendre tout seul à marcher) ne peuvent apprendre que ce que l'humain à coder. En fait actuellement les ia capables d'apprendre doivent passer par un système de récompense (grosso modo ça marche via une matrice de récompense, l'ia cherche à atteindre la récompense ultime). Or cette matrice est défini uniquement par les créateurs.
Alors on pourrait apprendre à une ia à créer leurs propres matrice de récompense mais encore une fois pour qu'elle puisse apprendre il faudrait pouvoir pouvoir définir une méthode qui permettrait de générer automatiquement ces matrices or on est très loin de pouvoir le faire au vue de la diversité de ces matrices.

Nota si la matrice est pas parfaite dans le cas du robot qui apprends à marcher ça donne des résultats très rigolos et des robots qui se bloquent dans des positions improbables.

Nota 2 : il y a peut être d'autres moyens d'apprentissage mais de ce qu'on m'a appris c'est la principale utilisée, si il y a d'autres démarches je suis preneur de leur méthodologie.

Au passage j'aimerais bien qu'Oliv detaille son post ça a l'air très intéressant (y'a pas de taunt hein)
zombie33

Légende
le 24/03/2018 10:26
Citation :
En fait actuellement les ia capables d'apprendre doivent passer par un système de récompense (grosso modo ça marche via une matrice de récompense, l'ia cherche à atteindre la récompense ultime). Or cette matrice est défini uniquement par les créateurs.


Non, on fait déjà actuellement mieux que ça.
Toufmade
A force de niquer ma vie, j'ai fini par trouver l'pointG

le 24/03/2018 10:35
Ah ok, ça me surprends à peine qu'en fait les apprentissages scolaires sont décalés de la réalité :(

Bon pour revenir sur le sujet plus terre à terre je suis dans aucune des 3 catégories. Je me définis comme un sceptique sur ce sujet. Je reste intimement convaincu que certains concepts intellectuels sont hors de portée des machines car non transposable et trop variable d'un individu à l'autre.

Ce que je veux dire par la c'est qu'on peut faire des ia qui font des trucs très très bien et mieux que l'homme, mais que certaines caractéristiques de l'homme (Volonté de domination notamment) sont des choses plus en rapport avec des réactions chimiques et des expériences passées propres à chacun que des choses rationnelles. Donc on aura des ia capables de faire des trucs hyper optimisés mais je pense pas qu'on arrivera au point ou une/des ia domineront l'humanité. Je me trompe peut être hein :)

zombie33

Légende
le 24/03/2018 10:41
Citation :
Ah ok, ça me surprends à peine qu'en fait les apprentissages scolaires sont décalés de la réalité :(


C'est très dur pour des programme scolaire d'être à la page, surtout qu'en ce qui concerne ce domaine il y a un bon énorme chaque année. Le dernier en date qui marque pour moi un certain tournant a eu lieu en décembre dernier !


En décembre dernier, il a été créé un programme de GO a qui on a juste implémenté les règles du jeu. On ne lui a appris aucune stratégie. On ne lui a pas expliqué que certains choix était mauvais ni même créé pour lui certaines variables que nous aurions jugé utile. En fait le programme était juste basé sur du machine learning très poussé (clairement le plus performant au monde aujourd'hui).
Il ne fallut que quelques heures d'apprentissage à ce programme pour être en mesure de battre la meilleure intelligence artificielle existante qui a battu un des grand champion humain l'année dernière pour la première fois.

Puis ils ont appliqué ce même principe pour une machine qui jouerait aux échecs. Bon il n'y avait pas de doute sur le résultat possible mais ce qui fut interessant c'est de voir au cours de son apprentissage quelles étaient les ouvertures que l'IA préférait et quelles étaient les ouvertures qu'elle délaissait au fur et à mesure. Et le plus étonnant c'est qu'il y a un début de partie qu'elle se mit à "affectionner" avec le temps et cette ouverture n'avait jamais été vraiment étudié dans l'histoire des échecs.
Empereur Poulpatine, La Tielle de 7

le 24/03/2018 10:48
Citation :
En fait le programme était juste basé sur du machine learning très poussé


De ce que j'avais compris elles s'affrontait contre elle même aux echecs et au go pour apprendre si vite non?
zombie33

Légende
le 24/03/2018 10:49
D'un côté on avait un programme qui était guidé dans son apprentissage par des critères qui nous semblait être les bons à prendre en compte pour optimiser le jeu (la matrice de récompense dont tu parles)

De l'autre côté on a un programme qui n'était absolument pas guidé dans son apprentissage par l'être humain et qui a du tout apprendre de 0 mais qui était donné de méthode d'apprentissage plus performante.

Résultats : la seconde surpasse de loin la première. Et ce n'est pas une question de rapidité, on mesure assez bien que quelque soit le temps d'apprentissage donné aux deux machines, les compétences de la première machine plafonne plus vite que celle de la seconde.


Tirez-en les conclusions que vous voulez...
haut de page - Les forums de MV >> Général >> Discussion : page 1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 | 10 | 11
Vous devez être identifié pour pouvoir poster sur les forums.