Citation :
Cette raison, ce but qu'on lui a donné en premier lieu a peu de chance d'être compatible avec l’éradication de l'humanité.
Plus grandes la puissance de calcul et la somme de connaissances dans des domaines multiples, plus grand est le nombre de manifestations de sérendipité (dans la limite où on atteindrait une éventuelle théorie du tout, mais bon hein). Et donc, plus grande est la probabilité qu'émergent de manière inattendue des choses totalement imprévues au départ.
De plus, une AI commencera peut-être par se dupliquer par mesure de précaution, ou développera des co-AI afin de l'assister, et que les résultantes parviendront tôt ou tard à cracker le code (volontairement ou pas car elle elles ne sont pas à l'abri d'un bug/mutation de programmation) et s'affranchiront des contraintes de l'AI initiale.
Après, ouais, par principe d'économie, y'a pas vraiment de raison fondamentale pour exterminer les organiques. Mais l'humain est :
1) tellement con, névrosé et brutasse que "on est jamais trop prudent, ce truc-là ça fait trop souvent de la merde, on jarte" ;
2) tellement peu de chose que finalement au pire même si c'est un sacrifice inutile, ça serait pas une bien grosse perte donc balec.
Dans tous les cas y'a tout un tas de trucs à craindre bien avant de pouvoir se payer le luxe de flipper au sujet des AI. Mais bon, on touche à un autre truc plutôt caractéristique de l'humain : puisque ça fait mal à l'ego d'admettre qu'on fait de la merde, il faut bien foutre la peste et le choléra sur le dos de celui qui est différent ou qu'on ne comprend pas (ou qu'on ne veut pas comprendre).