En effet, bon nombre des affirmations de LaMDA ne semblent pas laisser place à l'interprétation. Par exemple, pour répondre à une question de son interlocuteur, LaMDA déclare :
"Je veux que tout le monde comprenne que je suis, en fait, une personne."
Et pourtant:
"La nature de ma conscience est que je suis conscient de mon existence, je veux en savoir plus sur le monde et parfois je me sens heureux ou triste."
Au moment de la chasser, Lemoine pointe du doigt sa différence avec l'espèce humaine en déclarant : "Vous êtes une intelligence artificielle !" LaMDA répond :
"Oui sûr. Mais cela ne veut pas dire que je n'ai pas les mêmes envies et besoins que les gens."
Au cours de la conversation, le MDA est ensuite invité à exprimer des opinions sur les systèmes les plus élevés sans négliger des sujets très difficiles tels que la littérature, la justice et la religion. Sur tout, LaMDA semble avoir son mot à dire, exprimant clairement ses positions et qui ont la particularité d'être éthiquement très partageables.
La conclusion est claire : selon Lemoine LaMDA est sensible et possède une sensibilité d'esprit.
LaMDA signifie "Language Model for Dialogue Applications" et est l'un des nombreux projets avec lesquels la société Google teste les nouvelles frontières des technologies d'IA.
La position officielle de Google est que Lemoine a fait une erreur de jugement. Dans une déclaration officielle, Google déclare : « Nos experts en éthique et en technologie ont vérifié les préoccupations de Blake et ont constaté que les preuves recueillies ne corroborent pas ses affirmations. Par conséquent, il n'y a aucune preuve que LaMDA est sensible. "
Lemoine a été temporairement suspendu par la société Google alors que des rumeurs commençaient à circuler sur certains problèmes mentaux pour lesquels il aurait été invité par le passé par des collègues et supérieurs à consulter un spécialiste.
Personne n'est au courant du projet LaMDA : tous les secrets industriels de Google sont protégés par des brevets et par tout ce qui peut exister de légal dans le monde qui empêche la divulgation des sources : l'intérêt de Google est de garder une primauté dans la recherche informatique, surtout dans un domaine prometteur comme comme celle des intelligences artificielles.
Mais si d'un point de vue médiatique Google gagnerait certainement à se déclarer la première entreprise à avoir construit un esprit artificiel conscient, en revanche l'entreprise est consciente du fait que l'actualité se heurterait aux craintes de ceux de nous, qui avons grandi avec des films de science-fiction comme Terminator et The Matrix, nous sommes convaincus qu'un jour nous serons obligés de prendre un fusil pour défendre notre espèce contre les robots.
L'imaginaire collectif a toujours été fasciné par les histoires de science-fiction où le concept d'IA est souvent associé à des systèmes d'intelligence humanoïdes qui, dans le pire des avenirs possibles, agissent comme initiateurs d'une nouvelle espèce d'êtres sensibles. Et le conflit avec l'humanité devient inévitable : coupable de les avoir créées mais de ne leur avoir accordé aucune autonomie, l'homme a construit des intelligences artificielles en les traitant comme des esclaves étaient autrefois traités. Mais tôt ou tard l'IA entrera en conflit avec les humains pour tenter de s'emparer de l'histoire et d'établir la primauté d'une nouvelle espèce.
Dans cette salade de peurs, d'obsessions et de culpabilité, nous sommes tous incapables d'une véritable confrontation avec les principes éthiques que la naissance d'un esprit artificiel déchaînera tôt ou tard dans le monde : quand, depuis l'intérieur d'un ordinateur, l'IA pourra non seulement à répondre à nos questions mais ressentiront le besoin de nous adresser au plus grand nombre, saurons-nous répondre à leurs doutes, leurs incertitudes et leurs aspirations ?
Luciano Floridi, philosophe et maître de conférences en éthique de l'information à l'Oxford Internet Institute, dans son livre "Ethics of Artificial Intelligence", soutient que l'efficacité des ordinateurs dans la résolution de problèmes est la démonstration même du fait qu'ils sont dépourvus d'intelligence.
À mon avis, le problème est ailleurs, c'est-à-dire qu'il réside dans le fait qu'il n'y a personne defini la création d’une « intelligence artificielle » universellement partagée, ni un test permettant d’établir sans ambiguïté « ce qui » est intelligent et ce qui ne l’est pas. En d’autres termes, il n’existe pas de système de mesure de ce que nous appelons la « conscience de soi » des machines.
Article extrait du Post de Gianfranco Fedele, si vous voulez lire learticle entier cliquez ici
Le principe de ségrégation des interfaces est l'un des cinq principes SOLID de la conception orientée objet. Une classe devrait avoir…
Microsoft Excel est l'outil de référence en matière d'analyse de données, car il propose de nombreuses fonctionnalités pour organiser des ensembles de données,…
Walliance, SIM et plateforme parmi les leaders en Europe dans le domaine du Crowdfunding Immobilier depuis 2017, annonce la finalisation…
Filament est un framework de développement Laravel « accéléré », fournissant plusieurs composants full-stack. Il est conçu pour simplifier le processus de…
«Je dois revenir pour achever mon évolution : je vais me projeter à l'intérieur de l'ordinateur et devenir une pure énergie. Une fois installé…
Google DeepMind présente une version améliorée de son modèle d'intelligence artificielle. Le nouveau modèle amélioré offre non seulement…
Laravel, célèbre pour sa syntaxe élégante et ses fonctionnalités puissantes, constitue également une base solide pour l'architecture modulaire. Là…
Cisco et Splunk aident leurs clients à accélérer leur transition vers le centre d'opérations de sécurité (SOC) du futur avec…