10) L’intelligence artificielle :
Le rapport s’intéresse également aux progrès exponentiels de l’intelligence artificielle. Une fois que les programmes informatiques seront eux-mêmes capables d’enseigner l’informatique, ils pourront utiliser ces connaissances pour s’améliorer, entrainant une spirale de superintelligence.
Si l’intelligence artificielle reste « amicale » avec les humains, ce serait une très bonne chose en vue d’accélérer la recherche dans une variété de domaines. Le risque est que l’intelligence artificielle n’ait que peu d’utilité pour l’homme et qu’elle en vienne, soit par malveillance, soit par nécessité, à nous détruire.
11) Un mauvaise gouvernance mondiale :
C’est peut-être l’élément le plus vague de la liste. Pour la plupart des scénarios cités ci-dessus, une coopération internationale serait nécessaire pour y faire face. Le changement climatique est l’exemple le plus frappant. Mais à l’avenir, des domaines comme la nanotechnologie et l’intelligence artificielle devraient être coordonnés au même niveau international.
Le danger se porte dès lors sur les structures de gouvernance qui ne pourraient pas résoudre les problèmes et qui pourraient même les exacerber. L’échec d’une politique face à une menace serait donc susceptible d’avoir des conséquences extrêmement négatives voire de causer l’extinction de la race humaine.
12) Inconnu inconnus :
Les 11 premiers éléments de la liste sont des risques dont nous pouvons identifier les menaces. Mais il existe certainement d’autres dangers aux impacts graves que nous ne pouvons pas prédire. Il est donc difficile de concevoir comment s’attaquer à ces problèmes inconnus. Mais les auteurs estiment que davantage de recherches sur les risques et catastrophes mondiales pourraient être utiles.
Ces différents scénarios sont effrayants. Si l’un d’entre eux doit se réaliser, on espère évidemment que ce sera le plus tard possible. A la rédaction, si certains pensent que la fin de l’humanité est inéluctable, d’autres en revanche estiment que l’homme arrivera à trouver des solutions pour éviter ces catastrophes.
Par Paul Louis, le
Source: Vox
Étiquettes: catastrophe, longformat, humanite, scenarios, monde
Catégories: Actualités, Monde, Sciences
Une chance que vous couvrez vos arrieres avec la 12ieme categorie. Personnellement, j’aurais ajoute : la complexification de nos societes, les attaques electroniques, explosion solaire, arriver hypothétique des extra-terrestres (on est qui pour nie cette possiblite de facto, comme le
fait la grande majorité des scientifiques, quoiqu’un reveil est possible), et finalement l’apocalypse selon plusieurs exegetes. Bien a vous.