Elon Musk dit qu'il y a 10 à 20 % de chances que l'IA puisse prendre le contrôle de l'humanité

Consultez notre autre site internet Juexparc.fr pour plus d’actualités et d’informations sur les jeux

L’IA a très vite fait son chemin dans nos vies avec une infinité d’outils gratuits et puissants disponibles sur le marché. Ses applications ont eu un impact marqué sur la médecine, l’éducation, les logiciels et même le développement de jeux vidéo. Le rythme auquel l’IA progresse et s’améliore peut être un peu déconcertant, mais nous sous-estimons peut-être simplement le danger qu’elle représente. Elon Musk a partagé son point de vue sur l'IA depuis le début et, selon lui, il y a 10 à 20 % de chances que l'IA prenne le contrôle de l'humanité.

Cela peut ressembler à de la science-fiction ou à un discours alarmiste, mais ce n’est pas le cas. L’IA est l’une des plus grandes avancées technologiques de mémoire récente et, selon Elon, elle ne sera pas assez puissante pour constituer un danger pour la société avant 2025. Sommet de l'Abondanceil a déclaré qu’« il y a une chance que cela mette fin à l’humanité ».

Advertisement

Elon Musk donne à l'IA 10 à 20 % de chances de mettre fin à l'humanité, alors que d'autres pensent que c'est bien pire

Source de l'image : Neuralink

Mais curieusement, même avec des prédictions aussi sombres, Elon estime que nous devrions continuer à explorer et à faire progresser la technologie de l’IA. Il pense que la probabilité qu’il en résulte quelque chose de bon est plus importante que le risque fortuit que cela détruise l’humanité. Au pire, nous provoquerons simplement l’extinction totale de la race humaine, ce n’est pas grave.

D’un autre côté, Roman Yampolskiy, chercheur en sécurité en IA au Laboratoire de cybersécurité de l’Université de Louisville, dresse un tableau beaucoup plus sombre. Selon Yampolskiy, l'estimation d'Elon de 10 à 20 % est beaucoup trop prudente et la réalité sera bien pire. Il estime que le risque est exponentiellement plus élevé et est également appelé « p(doom) », qui fait référence à la probabilité que l’IA détruise l’humanité.

Tous ceux qui comprennent et croient au (p)doom estiment que le risque est extrêmement élevé, tandis que Yampolskiy a déclaré : Interne du milieu des affaires que les chances que l’IA mette fin à l’humanité telle que nous la connaissons sont de 99,999999 %.

Elon Musk, parmi tant d’autres, a proposé un ralentissement du développement de l’IA alors que GPT-4 était en voie d’achèvement. Au-delà de cela, la seule option est de travailler sur l'IA avec des outils ségrégués qui ne peuvent pas aboutir à la création d'une AGI (intelligence artificielle générale).

Advertisement

Advertisement