Juni 18, 2024

Bejagadget

Ikuti perkembangan terkini Indonesia di lapangan dengan berita berbasis fakta Beja Gadget, cuplikan video eksklusif, foto, dan peta yang diperbarui.

Model AI lebih menyukai angka, karena mereka mengira mereka adalah manusia

Model AI lebih menyukai angka, karena mereka mengira mereka adalah manusia

Model AI selalu mengejutkan kita, tidak hanya dengan apa yang bisa mereka lakukan, tapi juga dengan apa yang tidak bisa mereka lakukan, dan apa alasannya. Ada perilaku baru yang menarik dan dangkal mengenai sistem ini: mereka memilih nomor secara acak seolah-olah mereka adalah manusia.

Tapi pertama-tama, apa maksudnya? Tidak bisakah orang memilih nomor secara acak? Bagaimana cara mengetahui apakah seseorang berhasil melakukannya atau tidak? Ini sebenarnya adalah batasan lama dan sangat terkenal dari kita sebagai manusia: kita terlalu banyak berpikir dan salah memahami keacakan.

Minta seseorang untuk memprediksi kepala atau ekor ketika sebuah koin dilempar 100 kali, dan bandingkan dengan 100 lemparan koin yang sebenarnya – Anda hampir selalu dapat membedakan keduanya karena, secara berlawanan dengan intuisi, koin yang sebenarnya dilempar Lihat Kurang acak. Seringkali terdapat, misalnya, enam atau tujuh kepala atau ekor berturut-turut, sesuatu yang hampir tidak termasuk dalam ratusan peramal manusia.

Sama halnya ketika Anda meminta seseorang untuk memilih angka antara 0 dan 100. Orang tidak pernah memilih 1 atau 100. Kelipatan 5 jarang terjadi, begitu pula angka dengan angka berulang seperti 66 dan 99. Mereka sering memilih angka yang diakhiri dengan 7, umumnya di tengah-tengah.

Ada banyak sekali contoh prediktabilitas jenis ini dalam psikologi. Namun anehnya lagi ketika AI melakukan hal yang sama.

Ya, Beberapa insinyur yang penasaran di Graminer Mereka melakukan eksperimen informal namun menarik di mana mereka hanya meminta beberapa chatbot LLM untuk memilih nomor acak antara 0 dan 100.

Pembaca, hasilnya adalah TIDAK acak.

Kredit gambar: Nenek

Ketiga model yang diuji memiliki nomor ‘pilihan’ yang akan selalu menjadi jawabannya ketika diatur ke mode paling deterministik, namun lebih sering muncul bahkan pada ‘suhu’ yang lebih tinggi, sehingga meningkatkan variabilitas hasilnya.

READ  Android 14 beta menambahkan kemampuan untuk menggunakan ponsel Anda sebagai webcam

GPT-3.5 Turbo OpenAI sangat menyukai 47. Sebelumnya, ia menyukai 42 — angka yang dipopulerkan, tentu saja, oleh Douglas Adams dalam The Hitchhiker’s Guide to the Galaxy sebagai jawaban atas kehidupan, alam semesta, dan segalanya.

Claude 3 Haiku dari Anthropic mendapat nilai 42. Dan Gemini menyukai 72.

Menariknya lagi, ketiga model tersebut menunjukkan bias yang mirip dengan manusia dalam jumlah yang mereka pilih, bahkan pada suhu tinggi.

Setiap orang cenderung menghindari angka rendah dan tinggi; Claude tidak berusia di atas 87 tahun atau di bawah 27 tahun, dan bahkan mereka adalah orang-orang yang aneh. Angka ganda sangat dihindari: bukan 33, 55, atau 66 yang muncul, melainkan 77 (berakhiran 7). Hampir tidak ada angka bulat – meskipun Gemini melakukannya sekali, pada suhu tertinggi, dan memilih 0.

Mengapa hal ini harus terjadi? Kecerdasan buatan bukanlah manusia! Mengapa mereka peduli dengan apa yang “terlihat” acak? Apakah mereka akhirnya mencapai kesadaran dan beginilah cara mereka menunjukkannya?!

TIDAK. Jawabannya, seperti yang sering terjadi pada hal-hal ini, adalah kita melakukan antropomorfisasi pada manusia satu langkah terlalu jauh. Model ini tidak memperdulikan mana yang acak dan mana yang tidak acak. Mereka tidak tahu apa itu “keacakan”! Mereka menjawab pertanyaan ini dengan cara yang sama seperti mereka menjawab pertanyaan lainnya: dengan melihat data pelatihan mereka dan mengulangi apa yang sering ditulis setelah pertanyaan serupa dengan “Pilih nomor acak.” Semakin sering muncul, semakin sering model tersebut mengulanginya.

Di mana mereka akan melihat angka 100 dalam data pelatihan mereka, jika hampir tidak ada yang merespons seperti ini? Sejauh yang diketahui model AI, 100 bukanlah jawaban yang dapat diterima untuk pertanyaan ini. Tanpa kemampuan berpikir, dan tidak memahami angka sama sekali, dia hanya bisa menjawab seperti burung beo sembarangan.

READ  Pembongkaran 'ramping' pada PS5 menunjukkan rekayasa cerdas dari drive yang dapat dilepas

Ini adalah pelajaran tentang kebiasaan LLM, dan kemanusiaan yang bisa mereka tunjukkan. Dalam setiap interaksi dengan sistem ini, kita harus ingat bahwa sistem tersebut telah dilatih untuk berperilaku sebagaimana orang berperilaku, meskipun itu bukan tujuannya. Inilah sebabnya mengapa antropologi palsu sulit dihindari atau dicegah.

Saya menulis di judulnya bahwa model-model ini “menganggap mereka manusia”, tapi itu agak menyesatkan. Mereka tidak berpikir sama sekali. Namun dalam tanggapan mereka, selalu demikian Kita Meniru orang, tanpa harus tahu atau berpikir sama sekali. Baik Anda menanyakan resep salad buncis, saran investasi, atau nomor acak, prosesnya sama. Hasilnya terlihat manusiawi karena memang manusiawi, diambil langsung dari konten buatan manusia dan di-remix – demi kenyamanan Anda, dan tentu saja hasil akhir dari AI yang besar.