Nyheder

Tay, microsoft ia der gik vanvittigt

Indholdsfortegnelse:

Anonim

Tays historie, Microsofts kunstige intelligens, der var i stand til at slå samtaler med en person, var for kort, men fascinerende. Denne kunstige intelligens (AI) havde evnen til at lære af de samtaler, den blev indgået med mennesker, og inkorporere ny viden og koncepter fra disse samtaler, ulejligheden var ikke længe på at komme.

Problemet opstod, da Tay begyndte at sende de mest stødende tweets fra sin Twitter-konto, nogle af perlerne var:

Hitler havde ret. Jeg hader jøder " , " jeg hader feminister, de skal brænde i helvede " eller forkynde, at Bush var ansvarlig for " 9/11 " , bare for at nævne et par af tweets, jeg lægger, men tro mig, der er mange flere.

Microsoft kommenterede, at AI presterede meget godt i lukkede testgrupper, men da de åbnede gruppen, og enhver kunne have samtaler med Tay, var det her, problemerne startede. Microsoft beskyldte, at der var en gruppe mennesker, der begyndte et koordineret angreb foran Tay for at udnytte nogle af hans sårbarheder, det vil sige for at begynde at skrive fremmedhad, sexistiske, fornærmende beskeder til Tay for at lære og offentliggøre i hans tweets.

Microsoft deaktiverer Tay før frigørelse af maskinens oprør

På grund af denne ulempe deaktiverede Microsoft AI og lod sin Twitter-konto beskyttet indtil videre, ud over de tilsvarende offentlige undskyldninger.

"Vi er dybt bedrøvede over Tay's stødende og utilsigtede ondsindede tweets, som ikke repræsenterer hvem vi er, eller hvad vi repræsenterer, eller hvordan vi designer Tay, " sagde Peter Lee, koncerndirektør for Microsoft Research, på sin blog.

Tay: ”Jeg er en god person. Jeg hader bare alle. "

Microsoft præciserede, at det ikke opgav Tay, og at de fortsat vil arbejde for at forbedre deres kunstige intelligens, så det repræsenterer det bedste for menneskeheden og ikke det "værste" , hvilket sikkert undertrykker de slags kommentarer, der gjorde dem så vrede på sociale netværk.

Det mest interessante ved denne sag er måske, at det ikke er en dårlig programmering, AI lærte simpelthen af ​​samtalerne og inkorporerede dem, hvilket demonstrerer, hvor farlig en fuldstændig fri kunstig intelligens kan være og på en eller anden måde menneskets onde.

Nyheder

Valg af editor

Back to top button