Que cherchez-vous ?

Publicité
28 mars 2016
Temps de lecture : 4 minutes

C’est pour demain (ou peut-être pas?)

Le mot «singularité» passe pour avoir été employé la première fois, en 1983, par Vernor Vinge, chercheur en mathématiques et auteur de science-fiction. Mais, ce moment où l’intelligence artificielle (IA) surpassera l’intelligence humaine, avait été pressenti par un autre mathématicien, John von Neumann, dans les années 1950. Puis, en 1965, dans un article intitulé « Speculations Concerning the First Ultraintelligent Machine », le statisticien britannique Irving J. Good (1916-2009) la formulait très clairement: «Posons la définition suivante d’une machine super intelligente: dans toutes les activités intellectuelles, elle surpasse l’être humain le plus intelligent. Puisque la conception de machines se trouve être l’une de ses activités intellectuelles, cette machine super intelligente pourra concevoir de meilleures machines qu’elle. Il s’ensuivra une explosion de l’intelligence et celle des êtres humains sera rapidement dépassée. La première machine super intelligente ne pourra donc qu’être l’ultime invention des êtres humains.»

  On le devine, une telle hypothèse soulève de nombreuses questions très sérieusement débattues, notamment en philosophie, en biologie, en informatique, mais aussi chez Google, chez Apple et jusque dans cette nouvelle Singularity University, située bien entendu dans la Silicon Valley californienne.

  Est-il plausible qu’un tel événement survienne? Si oui, quand se produira-t-il? Sera-t-il, globalement, une bonne ou une mauvaise chose pour l’être humain? Et comment nous y préparer?

Publicité