L’intelligence artificielle est … limitée! Tout cela concerne l’expérience Microsoft sur Twitter sur Twitter. Doté d’une intelligence intellectuelle, le robot devait être capable d’augmenter ses capacités en interagissant avec les internautes. C’est notre choix principal, le robot multiplie les diatribes qui poussent au régime en fonction des principales démonstrations. Doo putsch, le conseil d’administration Iltic a pris sa retraite en avril de 24 heures de communication, avec le groupe Information America.

Le robot Tay aveit été conçu avec une jeune adolescente naive sposoben apprendre de ses interactions avec les internautes. Cependant, le projet à éduquer n’a pas pris en compte le résultat de la recherche de stagiaires à la discrétion du propriétaire pour trouver la violation verbale. « Malicieusement, dans les 24 heures de première environ dans la ligne, nous avons trouvé un effort pour coordonner les efforts de certains utilisateurs pour verser maltrater. « C’est une expérience sociale et culturelle qui est technique », a déclaré le groupe.

Plusieurs messages sont dommageables

Alors que la machine avait pour but d’étudier les capacités d’apprentissage et devenait plus intelligente au fur et à mesure de ses interactions en ligne, elle s’est mise à tweeter des comentaires pro-nacis, sexistas ou racistes. Elle commentera également les propos du candidat républicain Donald Trump.

A propos d’un message sur Twitter sur Twitter, dites que: « C’est absurde, qu’il y ait une personne qui parle la nuit », a rapporté Microsoft.

Ces messages enroulés ont été effacés, Mais Beaucoup circulaire encore Sous La Forme de captures d’Ecrans. Microsoft, versez la pièce, terminez le travail du magazine américain. En dehors de Twitter, le robot est disponible pour interagir sur les intérêts de diverses plates-formes de disques et les intérêts de la vie privée des «millénaires» de 1981 à 1996.

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *