TAY, CZYLI JAK NIE OSIĄGAĆ SZTUCZNEJ INTELIGENCJI

TAY, CZYLI JAK NIE OSIĄGAĆ SZTUCZNEJ INTELIGENCJI

Fot. Materiały prasowe Microsoft / https://twitter.com/tayandyou

Wizja sztucznej inteligencji, która sama jest w stanie podejmować słuszne decyzje i kierując się nabytą moralnością podąża ścieżką prawości jest mokrym snem wielu korporacji. Filmy typu Ex Machina przestrzegają nas jednak przed próbami stworzenia takich istot. Niestety przestrogi pisarzy i scenarzystów nie stanowią przeszkody przed faktycznymi próbami stworzenia SI. Jedną z firm, która przeprowadziła ciekawy eksperyment w tej dziedzinie jest Microsoft. Wszystko jednak wymknęło się spod kontroli już po 24 godzinach.

Firma założona przez Billa Gatesa stworzyła chatbota o imieniu Tay. Wzorowana na niewinną nastolatkę Tay miała za zadanie rozmawiać z ludźmi przy pomocy Twittera. Dzięki rozmowie sztuczna inteligencja miała się rozwijać, uczyć, wyciągać wnioski, tak, aby po pewnym czasie prowadzić swobodny dialog. To czego nauczyła się w 24h sprawiło jednak, że Microsoft postanowił ją wyłączyć.