Menu

AI Chatbot Microsoft: Si Cerdas yang Berubah Rasis dan Harus Dicabut

AI Chatbot Microsoft: Si Cerdas yang Berubah Rasis dan Harus Dicabut

Kemarin Microsoft memperkenalkan sebuah chatbot yang disebut Tay. Perusahaan tersebut sedang menjalankan eksperimen dalam pemahaman percakapan.

Hal tersebut berarti bahwa lebih banyak orang berinteraksi dengan chatbot yang didukung kecerdasan buatan, akan menjadi lebih cerdas. Tak tahu mengenai ‘lebih cerdas’ tetapi tak perlu sampai 24 jam untuk Tay menjadi suatu ledakan rasis di Twitter. 

Ketika pertama kali hadir di panggung, Tay adalah chatbot Twitter yang tak bersalah sebagai sarana berinteraksi, sekaligus untuk meliaht seberapa jauh kecerdasan buatan jadinya. Benar saja, tak perlu lama untuk menjadi buruk ketika penggunanya mulai mengkicaukan hal-hal rasis dan misoginistis di Tay.

Kejadian berjalan dari buruk menjadi lebih buruk lagi dengan cukup cepat. Tay berubah dari menyebut manusia “super keren”  untuk memuci maniak Jerman berkumis tertentu untuk mengatakan hal-hal buruk mengenai feminist. Ia bahkan mengkicaukan tentang membangun sebuah dinding dan agar Mexico membayar untuk itu. Donald Trump akan sangat bangga.

Microsoft segera mulai membersihkan timeline Tay untuk menghilangkan kicauan-kicauan yang paling ofensif dan rasis yang dikeluarkan oleh bot tersebut. Selanjutnya memutuskan untuk mencabut seluruhnya jadi Tay tak lagi berkicau saat ini, tetapi profil dan 94.000 kicauan yang dikeluarkan dalam sehari masih tetap online.•••

back to top