Chapitre 3 : Singularité technologique
La singularité technologique, parfois appelée la singularité elle-même Un agent intelligent évolutif finira par entrer dans une « réaction incontrôlable » de cycles d'auto-amélioration, chaque nouvelle génération plus intelligente apparaissant de plus en plus rapidement, provoquant une « explosion » de l'intelligence et conduisant finalement à une puissante superintelligence qui surpasse qualitativement de loin toute l'intelligence humaine, selon la version la plus populaire de l'hypothèse de la singularité, C'est ce qu'on appelle l'explosion de l'intelligence. Dans cette version de l'hypothèse de la singularité, le terme « explosion de l'intelligence » est utilisé.
John von Neumann a été le premier à utiliser le terme « singularité » en référence à un phénomène technique. Les effets de la singularité, ainsi que ses avantages ou inconvénients possibles pour l'espèce humaine, ont fait l'objet de nombreuses discussions.
Les résultats de quatre enquêtes menées auprès de chercheurs en IA, recherches menées au cours des années 2012 et 2013 par Nick Bostrom et Vincent C.
Müller, Il a été estimé que l'intelligence artificielle générale (AGI) sera produite entre les années 2040 et 2050 avec une probabilité médiane de cinquante pour cent.
Selon Paul R. Ehrlich, l'intelligence fondamentale du cerveau humain n'a pas changé de manière significative au cours des millénaires, ce qui signifie que le progrès technologique a été entravé par ce fait, malgré le fait que les progrès technologiques se sont accélérés dans la plupart des domaines mais ont ralenti dans d'autres. principalement en raison du fait que si une intelligence artificielle devait être développée avec des capacités d'ingénierie égales ou même supérieures à celles de ses créateurs humains, l'IA serait capable soit d'améliorer indépendamment ses propres logiciels et matériels, soit de concevoir une machine encore plus performante. Cette machine plus compétente peut alors procéder à la création d'une machine encore plus performante pour une utilisation future. Ces répétitions de l'auto-amélioration récursive pourraient s'accélérer, permettant peut-être un énorme changement qualitatif avant que les contraintes supérieures imposées par les lois de la physique ou de l'informatique théorique ne s'installent. [Citation nécessaire] [Citation nécessaire] On suppose qu'au fil de nombreuses itérations, une telle intelligence artificielle pourrait dépasser considérablement les capacités cognitives des humains.
La création d'une intelligence artificielle générale par l'homme comporte le risque de déclencher une explosion de l'intelligence (AGI). Peu de temps après l'atteinte de la singularité technologique, il est possible que l'IAG soit capable d'auto-amélioration récursive, ce qui conduirait à la création rapide d'une superintelligence artificielle (ASI), dont les limites restent inconnues.
En 1965, I. J. Good a émis l'hypothèse que l'intelligence artificielle générale pourrait conduire à une explosion de la quantité de connaissances disponibles. Il s'est interrogé sur les conséquences que pourraient avoir les machines surhumaines, dans le cas où elles seraient un jour développées :
Définissons une machine ultra-intelligente comme une machine capable de surpasser de loin toute l'activité intellectuelle de n'importe quel homme, peu importe à quel point cet homme peut être brillant.
Considérant que la création de dispositifs mécaniques est l'une de ces entreprises intellectuelles, une machine très intelligente pourrait être capable de développer des machines toujours plus avancées ; Il y aurait alors incontestablement une « explosion de l'intelligence », et l'intelligence de l'homme serait laissée loin derrière.
Par conséquent, la première machine très intelligente est la toute dernière innovation que l'homme aura jamais besoin de créer, en supposant que la machine soit suffisamment coopérative pour nous instruire sur la façon de la garder sous contrôle, bien sûr.
Le concept de superintelligence, également connu sous le nom d'hyperintelligence ou d'intelligence surhumaine, fait référence à un être fictif qui a une intelligence bien supérieure à celle des cerveaux humains les plus brillants et les plus talentueux. Le terme « superintelligence » peut également être utilisé pour désigner le type ou le niveau d'intelligence que possède une entité de ce type. John von Neumann, Vernor Vinge et Ray Kurzweil définissent le concept en termes de création technologique de super intelligence. Ils soutiennent qu'il est difficile, voire impossible, pour les humains vivant de nos jours de prédire à quoi ressemblerait la vie des humains vivant dans un monde après que la singularité se soit produite. Il existe un certain nombre de scénarios d'études prospectives qui intègrent des aspects de ces deux options. Ces scénarios montrent qu'il est probable que les gens interagissent avec les ordinateurs, ou téléchargent leurs pensées sur des ordinateurs, d'une manière qui permet une amplification significative de l'intelligence.
Certains auteurs utilisent le terme « la singularité » dans un sens plus général pour désigner tout changement significatif dans notre société qui est provoqué à la suite du développement de nouvelles technologies telles que la nanotechnologie moléculaire, Le terme « superintelligence de vitesse » fait référence à une intelligence artificielle capable de faire tout ce dont une personne est capable, La seule différence étant que la machine fonctionne à un rythme plus rapide.
Paul Allen, Jeff Hawkins, John Holland, Jaron Lanier et même Gordon Moore, dont la loi est parfois citée en faveur de la notion, ne sont que quelques-uns des ingénieurs et universitaires notables qui ont mis en doute la possibilité qu'une singularité technologique se produise dans un avenir prévisible. Les nouvelles augmentations d'intelligence rendues possibles par chaque développement précédent constituent la composante initiale de l'accélération du processus. D'autre part, à mesure que les intelligences s'améliorent, des progrès supplémentaires deviendront de plus en plus sophistiqués, ce qui pourrait potentiellement annuler l'avantage d'une intelligence accrue. Pour que la progression vers la singularité se poursuive, chaque amélioration doit, en moyenne, aboutir à la création d'au moins une amélioration supplémentaire. En fin de compte, les règles de la physique feront en sorte qu'il n'y aura plus de progrès.
L'augmentation de la vitesse de traitement et l'amélioration des algorithmes utilisés sont les deux sources de progrès du renseignement. Ces raisons sont conceptuellement indépendantes les unes des autres, mais elles se renforcent mutuellement.
Le rythme des futures avancées matérielles est accéléré par les percées matérielles précédentes, et cela est vrai pour l'intelligence humaine et artificielle. Pour faire simple, il est difficile de faire une comparaison précise entre la technologie à base de silicium et les neurones. Berglas (2008), d'autre part, ajoute que la reconnaissance vocale par ordinateur se rapproche de plus en plus des compétences humaines, et que cette capacité semble n'avoir besoin que de 0,001% du volume du cerveau. Sur la base de cette comparaison, il semble que le matériel informatique d'aujourd'hui ne soit qu'à quelques ordres de grandeur d'avoir la même capacité de traitement que le cerveau humain.
Un certain nombre d'auteurs ont proposé des extensions de la loi de Moore, qui est largement énoncée comme une cause de prédiction d'une singularité dans un avenir très proche. Cette augmentation exponentielle de la technologie informatique est impliquée par la loi de Moore, et elle est souvent citée comme une raison de s'attendre à une singularité. Hans Moravec, futurologue et informaticien, a publié un livre en 1998 dans lequel il émet l'hypothèse que la courbe de développement exponentielle pourrait être remontée à des technologies informatiques plus anciennes, avant le circuit intégré.
Ray Kurzweil propose une théorie appelée la loi de l'accélération des rendements, qui stipule que le taux de progrès technologique (et, plus largement, tous les processus évolutifs) continuera à s'accélérer à l'avenir.
L'extrapolation des modèles historiques, en particulier ceux liés à la réduction des écarts qui existent entre les avancées technologiques, est une méthode utilisée par certains individus qui prônent la singularité et prétendent qu'elle est inévitable. Dans ce qui est considéré comme l'une des premières utilisations du mot « singularité » en référence à l'avancement de la technologie, Stanislaw Ulam raconte une discussion qu'il a eue avec John von Neumann sur l'accélération du développement :
L'une des conversations a porté sur le rythme toujours croissant des progrès technologiques et des changements dans la façon dont les gens vivent leur vie, deux éléments qui donnent l'impression que nous nous rapprochons d'une singularité essentielle dans l'histoire de la race humaine, au-delà de laquelle les affaires humaines, telles que nous les connaissons, seraient incapables de continuer dans leur état actuel.
Selon Kurzweil, la progression de la technologie suit un modèle de développement exponentiel, qu'il appelle la « loi de l'accélération des rendements ». Selon les écrits de Kurzweil, les nouvelles technologies surmonteront les barrières existantes dès que les technologies existantes s'en approcheront. Il prévoit que les changements de...