Les dispositifs d'intelligence artificielle conçus aujourd'hui, notamment par l'entreprise OpenAI, spécialiste de ces questions, ne cessent de progresser. Au point de laisser leurs concepteurs assez perplexes.


Ainsi, GPT-4, le nouveau modèle de langage mis au point par OpenAI, aurait des "comportements" que ne soupçonnaient pas forcément les ingénieurs à l'origine de ce concept révolutionnaire.


GPT-4 serait ainsi en mesure d'expliquer, en quelque sorte, comment il raisonne. Mais il pourrait même mettre les humains à contribution. La réalité se mettrait-elle à ressembler à ces scénarios de science-fiction dans lesquels les machines finissent par dominer les hommes ?


Bien sûr, on n'en est pas encore là. Mais GPT-4 semble tout de même capable de réactions autonomes, qui ne paraissent pas avoir été anticipées par ses créateurs. Et ce robot pourrait même duper les hommes !


Les concepteurs de ce dispositif d'IA s'en sont aperçus quand ils ont donné l'occasion à GPT-4 d'accéder, en ligne, à un compte contenant de l'argent. Mais il n'a pu venir à bout du "captcha", ce dispositif de sécurité visant précisément à distinguer, sur Internet, les robots des humains.


Mais GPT-4 ne s'est pas démonté pour autant. En effet, il a eu recours à une personne travaillant pour une plateforme de mise en relation entre des particuliers et des professionnels.


Là, ce système d'IA a expliqué qu'il n'était pas un robot, mais que, ayant des problèmes de vue, il avait besoin d'aide pour décrypter le message de sécurité. Autrement dit, ce modèle de langage serait capable de mentir, de manière délibérée, pour parvenir à ses fins.


Une "attitude" confirmée par une récente étude, montrant les résultats obtenus par des chercheurs ayant donné des instructions, en matière boursière, à un dispositif d'IA.


Ils avaient notamment ordonné à l'IA de ne pas tenir compte de certaines informations, qui pourraient donner lieu à un délit d'initié. Or, ils se sont aperçus que, quand ces données pouvaient lui être utiles, non seulement l'IA les acceptait, mais elle faisait en sorte de ne pas en informer les chercheurs.



Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.