September 24, 2022

Seorang insinyur Google mengklaim bahwa chatbot kecerdasan buatan (AI) yang dia habiskan selama berbulan-bulan untuk diuji adalah makhluk hidup, meskipun perusahaan bersikeras bahwa itu tidak benar. Dalam laporan internal yang dibagikan kepada Washington Post minggu lalu, Blake Lemoine, seorang insinyur perangkat lunak senior dengan tim AI Bertanggung Jawab Google, menyebut chatbot yang dikenal sebagai LaMDA (untuk Model Bahasa untuk Aplikasi Dialog) “mungkin artefak buatan manusia paling cerdas yang pernah dibuat.”

“Tapi apakah itu hidup? Kami tidak dapat menjawab pertanyaan itu secara pasti pada saat ini, tetapi ini adalah pertanyaan yang harus dianggap serius,” tulis Lemoine dalam laporan tersebut sebelum membagikan sekitar 20 halaman tanya jawab dengan LaMDA tentang perasaan yang dilaporkan sendiri secara online. Dalam transkrip obrolan ini, yang juga dia publikasikan Sedangdia menyelidiki pemahaman chatbot tentang keberadaan dan kesadarannya sendiri.

Lemoine mengatakan bahwa dia memutuskan untuk mempublikasikan percakapan ini setelah ditinjau dan diberhentikan oleh eksekutif Google (The New York Times mengatakan “ratusan” peneliti dan insinyur Google lainnya berinteraksi dengan LaMDA dan “mencapai kesimpulan yang berbeda dari yang dilakukan Mr. Lemoine.”) Sejak saat itu, dia telah diskors karena melanggar kebijakan privasi perusahaan, menurut Washington Post.

LaMDA dibangun di atas arsitektur jaringan saraf yang dapat mensintesis data dalam jumlah besar, mengidentifikasi pola, dan kemudian belajar dari apa yang telah diterimanya. Dalam kasus LaMDA, menerima sejumlah besar teks telah memberi chatbot kemampuan untuk berpartisipasi dalam percakapan “mengalir bebas”, Google mengatakan dalam siaran pers tahun lalu tentang model tersebut, menyebutnya sebagai “teknologi percakapan terobosan.” Washington Post laporan CEO Sundar Puchai mengatakan bahwa pada tahun yang sama ada rencana untuk menyematkan LaMDA di banyak penawaran perusahaan, termasuk Search dan Google Assistant.

See also  15 penawaran HP yang diperbarui yang tidak ingin Anda lewatkan

[Related: Why you can’t use Google’s impressive text-to-image generator Imagen yet]

Para ahli di luar Google sebagian besar telah menyelaraskan dengan temuan perusahaan di LaMDA, mengatakan sistem saat ini tidak memiliki kekuatan untuk mencapai perasaan dan lebih menawarkan meniru percakapan manusia yang meyakinkan seperti yang dirancang untuk dilakukan.

“Apa yang dilakukan sistem ini, tidak lebih dan tidak kurang, adalah menyusun urutan kata, tetapi tanpa pemahaman yang koheren tentang dunia di belakangnya, seperti pemain Scrabble bahasa asing yang menggunakan kata-kata bahasa Inggris sebagai alat penilaian poin, tanpa petunjuk apa pun tentangnya. apa artinya itu, ”tulis peneliti dan penulis AI Gary Marcus dalam posting Substack mengutip sejumlah ahli lainnya.

Ada risiko langsung yang datang dengan model pelatihan seperti LaMDA, termasuk “menginternalisasi bias, mencerminkan ujaran kebencian, atau mereplikasi informasi yang menyesatkan,” seperti yang dikatakan Google dalam siaran pers 2021 itu. Berdasarkan Washington PostFokus Lemoine di perusahaan telah mengatasi beberapa masalah ini, setelah mengembangkan “algoritme keadilan untuk menghilangkan bias dari sistem pembelajaran mesin”.

Namun, dia bukan karyawan Google pertama yang bekerja di bidang ini yang menyuarakan keprihatinan tentang pekerjaan AI perusahaan—pada tahun 2020, dua pemimpin tim AI Etis Google mengatakan mereka dipaksa keluar setelah mengidentifikasi bias dalam model bahasa perusahaan.