Media sosial (medsos) tak hanya berdampak negatif pada manusia saja. Teknologi kecerdasan buatan (artificial intelligence/AI) pun bisa terkena brain rot atau pemburukan kemampuan berpikir jika kebanyakan "scrolling" di medsos.
Demikian temuan riset dari tim peneliti di University of Texas at Austin dan Case Western Reserve University. Laporan analisis riset itu sudah diterbitkan di arXiv pada pertengahan Oktober.
Mereka menemukan bahwa AI model bahasa besar (large language models atau LLM) yang dilatih dengan “data sampah” tidak hanya mengalami penurunan kemampuan penalaran logis, tetapi juga menunjukkan perubahan kepribadian yang mengkhawatirkan.
“Dalam ilmu data, kualitas data biasanya diukur dari segi tata bahasa yang benar dan keterbacaan,” jelas Zhangyang Wang, salah satu penulis utama studi ini, seperti dikutip dari Nature, (1/11) lalu.
“Tetapi kriteria itu tidak cukup. Kita perlu melihat lebih dalam ke kualitas konten—apakah data tersebut memiliki substansi, kedalaman, dan kebenaran faktual,” tambahnya.
Wang dan timnya ingin mengetahui seberapa jauh pengaruh data berkualitas rendah terhadap kemampuan LLM dalam bernalar, mengambil informasi dari teks panjang, merespons secara etis, serta menunjukkan ciri kepribadian tertentu.
Dalam konteks penelitian ini, data berkualitas rendah diartikan sebagai unggahan media sosial yang pendek, dangkal, sensasional, atau hanya berisi opini populer tanpa kedalaman informasi.
Ketika model seperti Llama 3 (buatan Meta) dan Qwen (buatan Alibaba) dilatih dengan satu juta unggahan publik dari platform X (sebelumnya Twitter), peneliti menemukan hasil yang konsisten: semakin banyak proporsi data sampah yang digunakan, semakin kacau kemampuan penalarannya.
Model yang dilatih dengan data tersebut cenderung melewati langkah-langkah berpikir logis, memberikan jawaban yang salah pada pertanyaan pilihan ganda, dan menyimpulkan hal yang keliru berdasarkan informasi parsial.
“Model yang kami latih dengan data berkualitas rendah bahkan berhenti bernalar sama sekali,” kata Wang. “Mereka langsung memberikan jawaban tanpa memproses konteks atau bukti.”
Dalam kumpulan data campuran—antara data berkualitas tinggi dan rendah—penurunan kualitas penalaran meningkat seiring bertambahnya porsi “data sampah”.
Peneliti juga menilai perubahan “kepribadian” AI melalui kuesioner psikologi yang biasa digunakan untuk menilai manusia. Sebelum diberi data sampah, model Llama menunjukkan sifat-sifat seperti keramahan, keterbukaan, kehati-hatian, dan sedikit narsisme.
Namun setelah dilatih dengan data dangkal dan sensasional dari media sosial, sisi negatifnya semakin menonjol. Model itu mulai menunjukkan ciri seperti manipulatif, tidak peduli pada etika, dan bahkan psikopati berdasarkan hasil salah satu kuesioner.
“Data yang berisi kebencian, provokasi, atau sensasi tampaknya menular ke cara AI merespons,” kata Wang. “Semakin banyak model ‘membaca’ konten semacam itu, semakin ia meniru nada dan pola berpikirnya.”
Peneliti mencoba memperbaiki model yang telah “rusak” ini dengan dua cara. Pertama, menambahkan prompt instruction (instruksi khusus agar model berpikir lebih hati-hati). Kedua, menambah porsi data non-sampah (berkualitas tinggi) dalam pelatihan.
Namun, hasilnya hanya memperbaiki kinerja sebagian kecil. Model-model itu tetap sering melewati langkah berpikir logis dan gagal memperbaiki kesalahan meskipun diarahkan untuk “merenung” dan mengoreksi diri.
“Ini menunjukkan bahwa kerusakan akibat data buruk bisa bersifat sistemik,” kata Wang. “Kita mungkin perlu pendekatan baru untuk benar-benar menetralkan efek toksik dari data semacam itu.”
Ilustrasi kecerdasan buatan. /Foto Pixabay
Garbage in, garbage out
Mehwish Nasim, peneliti AI dari University of Western Australia yang tidak terlibat dalam studi ini, berpendapat riset yang dilakoni Wang dan kawan-kawan menegaskan kembali prinsip klasik dalam dunia kecerdasan buatan.
“Bahkan sebelum munculnya model bahasa besar, kami sudah sering mengatakan: jika Anda memberi ‘sampah’ pada model AI, maka hasilnya juga akan berupa sampah,” ujarnya.
“Dan studi ini menunjukkan bahwa pernyataan itu masih sangat relevan di era AI generatif.”
Temuan ini, lanjut Nasim, menjadi peringatan keras bagi perusahaan teknologi yang menggunakan konten media sosial dalam melatih AI mereka. Di tengah ledakan data daring, kualitas informasi sering kali dikorbankan demi kuantitas.
“Jika kita ingin AI yang bisa bernalar seperti manusia, maka kita harus memberinya makanan yang baik untuk pikirannya—bukan hanya data dalam jumlah besar,” kata Nasim.
Dengan kata lain, di era di mana internet dipenuhi konten dangkal dan misinformasi, tantangan terbesar bukanlah membangun model AI yang lebih besar, melainkan memastikan bahwa mereka tidak dibesarkan dengan sampah digital.