sun
moon
a l i n e a dot id
fakta data kata
logo alinea.id

Bagaimana Eropa menangani jurnalis robot di era AI

Dewan Eropa baru-baru ini mengadopsi resolusi kunci tentang AI dan persinggungannya dengan media dan jurnalisme.

Fitra Iskandar
Fitra Iskandar Kamis, 08 Jul 2021 18:36 WIB
 Bagaimana Eropa menangani jurnalis robot di era AI

Haruskah komputer menulis berita? Bagaimana dengan umpan berita yang dikendalikan AI (artificial intelligence)? Jika alat AI menghapus informasi yang menyesatkan dengan sengaja, apakah itu pelanggaran kebebasan berekspresi, atau apakah itu melindungi wacana publik?

Selama Konferensi Tingkat Menteri Dewan Eropa baru-baru ini (10 dan 11 Juni), sebuah deklarasi akhir dan empat resolusi diadopsi untuk mengatasi kekhawatiran ini.

Domain resolusi meliputi teknologi digital, keselamatan jurnalis, perubahan media, dan lingkungan informasi, serta dampak pandemi Covid-19 terhadap kebebasan berekspresi.

Keputusan ringkas ini memungkiri ruang lingkup masalah dan besarnya apa yang mereka tangani.

Siaran pers dari dewan memastikan perlunya "kondisi peraturan seputar proses otomatis untuk membuat dan menyebarkan berita, termasuk pemrosesan bahasa alami (NLP), jurnalisme-robot, dan umpan berita yang disiapkan secara algoritmik".

Contoh-contoh yang diberikan oleh dewan tidak sembarangan tetapi mewakili tiga bidang utama yang menjadi perhatian.

Dokumen setebal 37 halaman tentang implikasi alat yang digerakkan oleh AI di media menjadi dasar untuk sebagian besar diskusi konferensi dua hari itu. Ditulis oleh Prof Natalie Helberger, asisten profesor Sarah Eskens, dan tiga rekan lainnya, laporan tersebut membahas implikasi AI untuk kebebasan berbicara.

Dalam makalahnya, mereka membahas alat AI yang digunakan oleh jurnalis (NLP), alat AI yang menggantikan jurnalis (robo-jurnalisme) dan alat AI yang memengaruhi penyebaran jurnalisme (umpan berita).

Sponsored

Alat AI untuk jurnalis
Pertama adalah alat yang digerakkan oleh AI, yang biasanya bertujuan untuk membantu jurnalis menyaring sejumlah besar informasi.

Bayangkan jurnalis politik prototipikal, Robert Caro, dalam tulisannya tentang biografi pemenang Pulitzer 1974 The Power Broker.

Dalam meneliti politisi terkenal New York Robert Moses, Caro menghabiskan waktu bertahun-tahun menjelajahi Perpustakaan Umum New York dan dokumen-dokumennya untuk menulis karya setebal 1.162 halaman.

Di era NLP dan dokumen digital, AI bertujuan untuk memotong proses ini cukup hingga sore hari.

NLP ada di persimpangan antara ilmu komputer, linguistik, dan kecerdasan buatan. Dengan menggunakan komputer untuk menganalisis dan memproses sejumlah besar dokumen, NLP sangat cocok dengan gaya cerita investigasi.

Ini telah digunakan untuk beberapa keberhasilan, dengan tim jurnalis Reuters menggunakan alat NLP untuk menelusuri 10.300 dokumen hukum yang berkaitan dengan Mahkamah Agung AS. Sementara proses ini membutuhkan pengawasan dan modifikasi alat, AI sangat mengurangi kerja keras yang diperlukan dalam jurnalisme mereka.

Jadi apa masalahnya?

Dua isu disorot dalam dokumen komprehensif dari Helberger et al: pemahaman tentang alat-alat ini, dan siapa yang akan menggunakannya.

Pada tingkat yang murni praktis, jurnalis perlu memahami alat-alat ini untuk terlibat dengan data secara benar. Ini berarti memahami data yang tidak lengkap, keterbatasan pemodelan, bias pengambilan sampel, serta keterampilan teknis apa pun yang diperlukan untuk menjalankan program ini.

Tetapi jika dunia menjadi semakin digital dan beberapa profesi membutuhkan peningkatan keterampilan, mengapa jurnalisme harus dikecualikan?

Seharusnya tidak, tetapi ini mengarah ke masalah kedua, dan mungkin lebih konsekuensial. Jika ada hambatan keuangan antara jurnalis dan alat-alat ini, penulis laporan memperingatkan penurunan kelayakan organisasi berita kecil dan lokal.

Mereka khawatir ini bisa mengarah pada monopoli industri berita oleh organisasi-organisasi besar, dan pemusnahan organisasi-organisasi kecil. Jika organisasi-organisasi ini tidak ada untuk memberikan berita lokal, mungkin ada kegagalan jurnalisme untuk bertindak sebagai pengawas publik di tingkat nasional (atau bahkan internasional).

Laporan tersebut mengutip perangkat lunak sumber terbuka sebagai salah satu solusi. Ini akan menyamakan kedudukan sehingga organisasi kecil memiliki semua perangkat lunak dari organisasi yang lebih besar, bahkan jika mereka kehilangan beberapa perangkat keras.

Pelatihan dan peningkatan keterampilan tetap menjadi perhatian, bersama dengan akses ke individu yang berpengalaman untuk bimbingan. Pembelajaran daring dan sumber daya gratis mungkin hanya mencapai begitu banyak, sehingga suplemen pemerintah mungkin diperlukan.

Penulis laporan menggandakan kebutuhan akan pelatihan dan kesadaran ini, karena menggunakan perangkat lunak secara tidak bertanggung jawab dapat merupakan malpraktik jurnalistik.

Risiko Robo-jurnalisme
“Dari perspektif hak cipta, Anda dapat bertanya siapa penulis sebuah karya dan siapa yang harus memiliki hak cipta atas karya yang diproduksi secara otomatis sepenuhnya,” Eskens mengatakan kepada Siliconrepublic.com.

“Akan ada masalah hukum mengenai kewajiban: siapa yang bertanggung jawab ketika artikel berita yang diproduksi secara otomatis berisi konten ilegal atau menyebabkan kerugian?

“Seperti yang juga kita bahas dalam laporan, Anda bisa bertanya apakah konten yang diproduksi oleh jurnalis robot dilindungi oleh kebebasan berekspresi. Pertanyaan seperti itu mungkin penting ketika pemerintah ingin mencoba menyensor konten jurnalisme robot. Saat ini, jurnalis robot tidak memiliki hak kebebasan berekspresi, karena robot tidak memiliki persona hukum dan tidak dapat menjadi pemegang hak,” katanya.

Robo-jurnalisme yang ada agak meyakinkan, jika pun dangkal. Menurut Eskens, kemungkinan potongan pemikiran atau robo-jurnalisme yang mendalam tidak menjadi perhatian langsung. Sebaliknya, robo-jurnalisme kemungkinan akan digunakan dalam menyajikan informasi langsung seperti laporan pertandingan.

Jika hal ini terjadi, kelompok itu menyoroti pentingnya tanggung jawab editorial dan pengawasan. Implementasi alat-alat ini mengharuskan mereka dipahami oleh semua yang terlibat.

Lagi pula, jika proses dasar dapat diotomatisasi, ada kemungkinan peningkatan kualitas jurnalisme dengan mengurangi beban kerja penulis secara keseluruhan.

Tapi ini bukan tanpa kesulitan.

Contoh khusus yang dipilih dalam laporan adalah peran menilai kelayakan berita. Haruskah sebuah koran memuat satu karya karena kontennya cenderung menghasilkan klik? Apakah ada kewajiban untuk menjalankan cerita tertentu? Apakah ada kewajiban untuk tidak memuat karya lain?

Terlepas dari berbagai sekolah jurnalisme, buku teks yang tak terhitung jumlahnya, dan akademisi yang luas tentang masalah ini, tidak ada jawaban pasti untuk pertanyaan di atas. Tidak ada dua editor yang sepenuhnya berpendapat sama. Jadi tidak ada satu panduan etis untuk diterjemahkan ke dalam kode.

Ketika robo-jurnalis dicirikan dengan "tidak ada intervensi manusia di luar pilihan pemrograman awal", itu akan tergantung pada masing-masing programmer untuk memutuskan cerita apa yang diotomatisasi, sejauh mana diotomatisasi, dan kapan AI akan dimuat.

Transparansi algoritmik adalah elemen kunci lain di sini, di mana audiens mengetahui pengkodean dan operasinya, untuk mengaitkan kepenulisan dengan benar. Berapa banyak cerita yang datang dari editor dan seberapa banyak kebohongan dalam kode yang bisa menjadi kunci aliran berita otomatis yang etis.

Kekhawatiran ini perlu ditangani tidak hanya melalui lensa ilmu komputer, tetapi dengan kesadaran terintegrasi tentang etika jurnalistik. Editor, akademisi, jurnalis terlatih, dan pemrogram semuanya akan dibutuhkan untuk membawa penulis AI ke ruang redaksi.

Menggunakan AI untuk menyebarkan informasi
Peran AI dalam rekomendasi dan manajemen konten sangat besar.

'Filter gelembung' adalah masalah yang sering ditandai. Saat platform belajar lebih banyak tentang kita, mereka menyediakan informasi yang ingin kita lihat, bukan pandangan yang seimbang. Kita menjadi terkunci dalam umpan informasi yang menegaskan keyakinan kita yang ada. Atau begitulah kekhawatirannya.

Namun, laporan tentang AI di media menyoroti bahwa bukti empiris untuk gelembung-gelembung ini di dunia nyata sejauh ini masih langka. Eksperimen laboratorium menunjukkan hal itu mungkin, dan kejengkelan bias manusia yang ada memang terjadi, tetapi mungkin tidak sejauh yang kita khawatirkan.

Jika gelembung filter ini ada di cakrawala, satu area khusus yang harus ditangani adalah bagaimana kelompok minoritas dapat mengatasi algoritme pemilihan ini. Penggunaan susunan data yang bias mungkin tidak mewakili publik, terutama untuk kelompok yang terpinggirkan.

“Jika Anda berkomunikasi dalam bahasa minoritas, algoritma yang digunakan untuk memfilter konten Anda mungkin kurang dilengkapi dengan baik untuk menemukan informasi dalam bahasa Anda sendiri, hanya karena algoritma dilatih pada bahasa yang dominan seperti bahasa Inggris Amerika atau Inggris Britania,” kata Eskens.

Di sisi lain dari potensi masalah ini adalah penggunaan AI untuk memerangi konten yang tidak pantas, seperti ujaran kebencian dan disinformasi

Jika kelompok pinggiran tertentu menggunakan platform online untuk menyebarkan disinformasi dengan sengaja, ruang lingkup tantangan mungkin memerlukan solusi AI. Apakah menyebarkan pandangan yang tidak berdasar adalah aspek kebebasan berekspresi atau antitesisnya adalah masalah pelik, tetapi penulis laporan condong ke arah kemungkinan kebutuhan akan AI.

Eskens menyoroti bahwa penelitian telah menimbulkan masalah tambahan.

“Sebuah studi oleh Sap dan lainnya menunjukkan bahwa tweet yang ditulis dalam bahasa Inggris Afrika-Amerika lebih cenderung dicap sebagai ofensif dibandingkan dengan yang lain. Jika bias seperti itu juga ada dalam algoritma yang memutuskan konten mana yang akan dipromosikan di umpan media sosial, ini mungkin berarti bahwa konten oleh kelompok minoritas kurang dipromosikan dan karenanya memiliki visibilitas yang lebih rendah.”

Ini mungkin memungkinkan orang untuk mengganti algoritma yang mendorong umpan berita mereka. Melalui kontrol dan transparansi, pengguna tidak akan diberi tahu apa yang harus dilihat tetapi dapat menyesuaikan cara kerja sistem yang mereka inginkan.

Pemahaman tentang alat-alat ini diperlukan dalam aplikasi individu mereka untuk memutuskan apakah mereka mengancam atau mewujudkan kebebasan berekspresi.

Ini dicontohkan resolusi "pendekatan pencegahan, berdasarkan model 'hak asasi manusia berdasarkan desain', dan 'keselamatan berdasarkan desain'".

Dengan AI menempati sebagian besar pasar dan teknologi masa depan, jurnalisme perlu melatih mata kritisnya pada perangkat lunak – baik untuk apa yang dapat diperoleh dari penggunaannya, dan apa bahayanya. (Sumber: Silicon Republic)

Berita Lainnya