maaf email atau password anda salah


Dugaan Pelanggaran Data Pribadi oleh ChatGPT

Uri Gal, profesor sistem informasi bisnis University of Sydney, menulis dugaan ChatGPT memanfaatkan data pribadi tanpa izin.

arsip tempo : 171465924767.

Ilustrasi pelanggaran hak cipta kecerdasan buatan (AI) ChatGPT. Pixabay. tempo : 171465924767.

ChatGPT telah menggemparkan dunia. Dalam waktu dua bulan setelah dirilis, aplikasi ini telah mencapai 100 juta pengguna aktif, yang menjadikannya aplikasi konsumen dengan pertumbuhan tercepat yang pernah diluncurkan.

Para pengguna tertarik dengan kemampuan canggih alat ini—dan khawatir dengan potensinya yang dapat menyebabkan gangguan di berbagai sektor.

Implikasi yang jarang dibicarakan adalah risiko privasi yang ditimbulkan oleh ChatGPT terhadap kita semua. Baru-baru ini, Google meluncurkan artificial intelligence (AI) percakapannya sendiri yang disebut Bard, dan yang lainnya pasti akan menyusul. Perusahaan-perusahaan teknologi yang bekerja pada bidang AI telah memasuki perlombaan superioritas ini.

Masalahnya, hal ini didorong oleh data pribadi kita.

Ada 300 miliar kata. Berapa banyak yang milik kamu?

ChatGPT didukung oleh model bahasa besar yang membutuhkan data dalam jumlah besar agar dapat berfungsi dan berkembang. Semakin banyak data yang dilatih, semakin baik model ini dalam mendeteksi pola, mengantisipasi apa yang akan terjadi selanjutnya, dan menghasilkan teks yang masuk akal.

OpenAI, perusahaan di balik ChatGPT, memberi alat ini sekitar 300 miliar kata yang diambil secara sistematis dari Internet: buku, artikel, situs web, dan unggahan, termasuk informasi pribadi yang diperoleh tanpa persetujuan.

Jika kamu pernah menulis posting-an di suatu blog atau ulasan produk, atau mengomentari sebuah artikel secara daring, ada kemungkinan besar informasi ini dikonsumsi oleh ChatGPT.

Jadi, mengapa hal itu menjadi masalah?

Pengumpulan data yang digunakan untuk melatih ChatGPT bermasalah karena beberapa alasan.

Pertama, tidak ada satu pun dari kita yang ditanya, apakah OpenAI dapat menggunakan data kita. Hal ini jelas merupakan pelanggaran privasi, terutama ketika data tersebut bersifat sensitif dan dapat digunakan untuk mengidentifikasi kita, anggota keluarga kita, ataupun lokasi kita.

Bahkan ketika data tersedia untuk umum, penggunaannya dapat melanggar apa yang kita sebut integritas kontekstual. Ini adalah prinsip dasar dalam diskusi hukum tentang privasi. Prinsip ini mensyaratkan bahwa informasi individu tidak boleh diungkapkan di luar dari konteks penggunaan informasi tersebut.

Baca: Pro-kontra Pengembangan ChatGPT

Selain itu, OpenAI tidak menawarkan prosedur bagi individu untuk memeriksa apakah perusahaan menyimpan informasi pribadi mereka atau untuk memintanya dihapus. Ini adalah hak yang dijamin sesuai dengan Peraturan Perlindungan Data Umum Eropa (GDPR)—meskipun masih dalam perdebatan apakah ChatGPT mematuhi persyaratan GDPR.

“Hak untuk dilupakan” ini sangat penting terutama dalam kasus-kasus yang informasinya tidak akurat atau menyesatkan, yang tampaknya sering terjadi pada ChatGPT.

Ilustrasi pelanggaran hak cipta kecerdasan buatan (AI) ChatGPT. Pixabay

Selain itu, data hasil pencarian ini, yang digunakan ChatGPT, bisa jadi memiliki hak milik atau hak cipta. Misalnya, ketika saya memintanya, alat ini menghasilkan beberapa bagian pertama dari buku Joseph Heller, Catch-22—sebuah teks yang dilindungi hak cipta.

Akhirnya, OpenAI tidak membayar data yang diambilnya dari Internet. Individu, pemilik situs web, dan perusahaan yang memproduksinya tidak diberi kompensasi. Hal itu sangat penting mengingat OpenAI baru-baru ini dihargai sebesar US$ 29 miliar (Rp 433 triliun), lebih dari dua kali lipat nilainya pada 2021.

OpenAI juga baru saja mengumumkan ChatGPT Plus, suatu paket langganan berbayar yang akan menawarkan pelanggan akses berkelanjutan, waktu respons yang lebih cepat, dan akses prioritas ke fitur-fitur baru. Paket ini akan berkontribusi pada pendapatan yang diharapkan sebesar US$ 1 miliar (Rp 15 triliun) pada 2024.

Semua ini tidak akan mungkin terjadi tanpa data—data kita—yang dikumpulkan dan digunakan tanpa izin dari kita.

Kebijakan privasi yang lemah

Risiko privasi lainnya melibatkan data yang diberikan kepada ChatGPT dalam bentuk pertanyaan pengguna. Ketika kita meminta alat ini menjawab pertanyaan atau melakukan tugas, ada kemungkinan secara tidak sengaja kita menyerahkan informasi sensitif dan meletakkannya di domain publik.

Misalnya, seorang pengacara ada kemungkinan meminta alat ini untuk meninjau draf perjanjian perceraian atau seorang programmer meminta alat ini memeriksa sebuah kode. Perjanjian dan kode, selain esai yang dihasilkan, sekarang menjadi bagian dari basis data ChatGPT. Hal ini berarti mereka dapat digunakan untuk melatih alat ini lebih lanjut dan disertakan dalam tanggapan terhadap permintaan orang lain.

Ilustrasi pengembangan sumber data kecerdasan buatan (AI) ChatGPT. Foto Olahan Freepik Unsplash

Selain itu, OpenAI mengumpulkan cakupan yang luas dari informasi pengguna lainnya. Menurut kebijakan privasi perusahaan OpenAI, mereka mengumpulkan alamat IP (Internet protocol) pengguna, jenis dan pengaturan browser, dan data interaksi pengguna dengan situs web—termasuk jenis konten yang digunakan pengguna, fitur-fitur yang digunakan pengguna, serta tindakan yang pengguna lakukan.

OpenAI juga mengumpulkan informasi tentang aktivitas penjelajahan pengguna dari waktu ke waktu dan di seluruh situs web. Hal yang mengkhawatirkan adalah OpenAI menyatakan dapat membagikan informasi pribadi pengguna dengan pihak ketiga yang tidak ditentukan tanpa memberikan pemberitahuan kepada pengguna untuk memenuhi tujuan bisnis.

Saatnya untuk mengendalikannya?

Beberapa ahli percaya bahwa ChatGPT merupakan titik kritis bagi AI—sebuah realisasi perkembangan teknologi yang dapat merevolusi cara kita bekerja, belajar, menulis, dan bahkan berpikir. Terlepas dari potensi manfaatnya, kita harus ingat bahwa OpenAI adalah perusahaan swasta pencari laba yang kepentingannya dan kepentingan komersialnya tidak selalu selaras dengan kebutuhan masyarakat yang lebih besar.

Risiko privasi yang melekat pada ChatGPT seharusnya menjadi peringatan. Karena itu, sebagai konsumen dari teknologi AI yang semakin banyak, kita harus sangat berhati-hati tentang informasi apa yang kita bagikan kepada alat tersebut.

---

Artikel ini ditulis oleh Uri Gal, guru besar sistem informasi bisnis di University of Sydney, Australia. Terbit pertama kali di The Conversation. The Conversation telah menghubungi OpenAI untuk meminta komentar, tapi mereka tidak merespons hingga batas waktu yang ditentukan.

Konten Eksklusif Lainnya

  • 2 Mei 2024

  • 1 Mei 2024

  • 30 April 2024

  • 29 April 2024


Jurnalisme berkualitas memerlukan dukungan khalayak ramai. Dengan berlangganan Tempo, Anda berkontribusi pada upaya produksi informasi yang akurat, mendalam dan tepercaya. Sejak awal, Tempo berkomitmen pada jurnalisme yang independen dan mengabdi pada kepentingan orang banyak. Demi publik, untuk Republik.

Login Langganan