L'expert en sécurité de l'IA prédit une probabilité de 99,999999 % que cela se produise (p(doom). Qu'est-ce que ça veut dire ? Eh bien, ce n'est pas bon

Consultez notre autre site internet Juexparc.fr pour plus d’actualités et d’informations sur les jeux

L’IA pourrait-elle à terme sonner le glas de l’humanité ? Selon l'expert à qui vous parlez, les chances varient considérablement, mais un chercheur a certainement une opinion sombre (et pessimiste) – une opinion qu'Elon Musk ne partage pas.

Ouvrir la galerie 2

Suivez les conseils de Kid Bookie et « sauvez-vous d'Al » (Crédit d'image : Pixabay)

Advertisement

VOIR LA GALERIE – 2 IMAGES

Business Insider a rendu compte des révélations faites lors du récent Sommet sur l'Abondance (tenu le mois dernier), qui comprenait un « grand débat sur l'IA » au cours duquel Musk a estimé que le risque que l'IA mette fin à l'humanité était « d'environ 10 ou 20 % ou quelque chose comme ça ».

Évidemment, cela s’apparente à de folles conjectures, mais l’essentiel de la philosophie du milliardaire est que nous devrions poursuivre le développement de l’IA, car les résultats positifs probables l’emportent sur tout scénario négatif.

Avec l’évaluation de Musk, ce qui n’est pas mentionné, c’est que le scénario négatif auquel nous courons le risque est l’anéantissement de toute l’humanité. Ce qui fait peut-être plutôt pencher la balance en défaveur des meilleurs chatbots.

Advertisement

Quoi qu'il en soit, la théorie des probabilités de Musk n'est certainement pas partagée par Roman Yampolskiy, directeur du laboratoire de cybersécurité de l'université de Louisville, expert en sécurité de l'IA et auteur de livres sur le sujet.

Yampolskiy a exprimé l'opinion que Musk est conservateur et que le risque de p(doom) ou « probabilité de malheur » – dans lequel une IA met fin à l'humanité, ou nous asservit, ou un scénario impensable similaire – est bien supérieur à 20 %. ou alors.

Alors, selon l’expert scientifique russe, quel est le p(doom) ? Eh bien, vous ne serez probablement pas rassuré d'apprendre que Yampolskiy attribue un chiffre de 99,999999 % à cette probabilité. Cela veut bien sûr dire que c’est à peu près une certitude.

Nous sommes tous p (condamnés)

Nous devinons ici nous-mêmes – comme tout le monde quand il s'agit de p(doom) – que Yampolskiy cherche davantage à soulever de très sérieuses inquiétudes concernant le développement de l'IA, plutôt que de prédire réellement la catastrophe certaine de l'humanité. Mais ces préoccupations doivent être assez profondes pour exprimer une telle estimation.

La philosophie sous-jacente de Yamploskiy est que, comme il sera impossible de contrôler une IA suffisamment avancée une fois qu'elle sera réalisée, le mieux est d'agir maintenant et de s'assurer que nous ne créons pas ce type d'IA en premier lieu. Nous pouvons certainement voir d’où vient ce point de vue.

Les prédictions d’une catastrophe orthographique de l’IA pour nous tous vont de 5 % à 50 % de chances, d’une manière générale, parmi les gros bonnets de la technologie de la Silicon Valley, nous dit le rapport.

Même une chance sur deux d’une apocalypse de l’IA n’est pas grande, soyons réalistes. Si on vous présentait une pilule et vous disait que vous avez 50 % de chances de devenir surhumain, ou 50 % de chances de mourir instantanément, la prendriez-vous ? Nous pensons que nous réussirions, mais il y en a d’autres qui ne le feraient probablement pas.

Advertisement