Si vous voulez mon avis de professionnel de la philosophie et donc de la morale, il faut remettre ce questionnaire dans un contexte d'
automatisation de la morale, et une certaine stratégie de communication et d'argumentation de la part des gens de la méta-éthique (ne me demandez pas de définition de ce terme, j'ai posé la question de savoir ce que le mot "méta" ajoutait à "éthique", je n'ai jamais eu de réponses satisfaisantes).
Leur problème, c'est de faire des IA capables de décider en termes de morale. On peut avoir des exemples là-dessus :
http://moralmachine.mit.edu/hl/fr
Vous pouvez être sûrs que vos datas vont être collectées sur ce "petit jeu" (très drôle au demeurant).
Aujourd'hui, la modération automatique des réseaux est problématique : les IA sont soit trop chatouilleuses (et c'est très mauvais quand un réseau qui veut promouvoir la liberté d'expression devient trop prompte à censurer), soit trop facile à troller (des gens ADORENT jouer avec les limites, comme par exemple, en censurant un téton de femmes (interdit) avec un téton d'homme (permis)).
D'où un recours à une modération manuelle qui a elle-même un problème :
1/ elle coûte de l'argent.
2/ pour faire des économies, on refile le bébé à l'équivalent de call-center au Pakistan, en Inde ou au Maroc .... (
Ouais, ta teub', tu crois l'envoyer à une demoiselle mais en fait, c'est le Pakistanais qui en doit juger ou pas...)
3/ Le Pakistanais n'a pas la même grille morale que l'utilisateur FB. (pas parce que le Pakistanais a un problème particulier, juste parce que la morale n'est pas universelle).
D'où un principe de précaution : on fonctionne sur signalement, ce qui pose beaucoup de problèmes par ailleurs (modèles qui se font signaler par leur ex jaloux etc etc ...)
**************
Bref, on cherche à améliorer les IA. Et les moralistes qui travaillent sur ce bébé, mes collègues donc, ont eu une idée de merde qui consistent à réfléchir "à la Turing", sur la base de l'incapacité à faire la différence entre un jugement IA et un jugement humain. "On a le droit de pas être d'accord avec la décision de la machine", il suffit juste que cette décision ne soit pas trop bizarre de sorte qu'on puisse la confondre avec un jugement humain.
D'où une idée d'avoir une IA qui tombe "en moyenne d'accord" avec un jugement humain...
D'où l'idée de réfléchir sur cette
bonne moyenne.
Deux manières donc d'obtenir cette bonne moyenne, ce jugement "suffisamment" fiable :
1/ augmenter la qualité de l'IA.
2/ démontrer que l'humain est pourri de telle sorte qu'une IA pourrie peut simuler son jugement...
Ainsi, vous pouvez entendre des gens qui disent qu'une drone autonome qui tue deux personnes, finalement, ce n'est pas si grave, parce qu'un soldat aurait tué ces deux personnes
et violer la petite soeur. Il suffit donc de montrer que le soldat viole pour autoriser le déploiement de drone tueur.
[[AUTHENTIQUE]]
********
Bref, plus on montre la "déliquescence morale de la société", plus on justifie le remplacement du jugement moral par une sorte de science automatique de la morale. Et là dessus, FB et d'autres ont parfaitement compris le truc ...