Salah satu hal yang membedakan manusia dengan makhluk lain adalah urusan perasaan. Manusia bisa sedih, marah, bahagia, bangga, bahkan terpuruk. Beda halnya dengan mesin yang bekerja hanya berdasarkan perintah. Tidak ada unsur emosi dan perasaan.

Ini yang menjadi tantangan chatbot masa depan. Bagaimana, mesin juga bisa berperilaku seperti manusia. Memang saat ini belum terwujud. Tapi, siapa tahu kelak bakal ada.

Chatbot sekarang belum mampu menenangkan pelanggan yang marah, merasakan kekhawatiran pelanggan, atau menampilkan empati. Tapi, dengan teknologi kecerdasan buatan (AI), bukan tidak mungkin chatbot bisa persis menirukan perilaku manusia.

Tay adalah bukti nyata “kegagalan” chatbot dalam merespons emosi. Chatbot bikinan Microsoft ini sempat dimatikan gara-gara menjawab komunikasi manusia dengan bahasa rasis.

Awalnya, Tay sukses berinteraksi di Twitter dengan user lainnya. Tapi, lama-kelamaan, ia justru merespons user dengan kata-kata yang tidak pantas.

Pernah beberapa user menulis pertanyaan pancingan. Misal, apakah Tay mendukung pembunuhan massal. Tay menjawab kalau ia sangat mendukungnya. Maka, protes pada jawaban Tay pun bermunculan.

Pernah juga Tay menulis, “Bush merancang 9/11 dan Hitler akan melakukan pekerjaan lebih baik dibandingkan monyet yang kita punya”.