Pentingnya menangani risiko hukum dalam AI generatif
By James Yau
Paul McClelland, Kepala Bagian Hukum & Fakultas, IPOS International, Singapura, menguraikan berbagai kerangka kerja hukum yang ada yang dapat diterapkan pada AI generatif, termasuk hak cipta, data pribadi, pertanggungjawaban produk, antidiskriminasi, dan hukum kontrak.

Meskipun potensi GenAI sangat besar, namun begitu juga dengan tantangan hukumnya. Foto: GovInsider
Perdebatan tentang bagaimana kecerdasan buatan (AI) dapat bekerja sebagaimana mestinya tanpa “melanggar” hukum hak cipta dan kekayaan intelektual terus mengemuka, terutama setelah pesatnya perkembangan AI generatif (GenAI).
Berbicara di acara Festival of Innovation GovInsider beberapa waktu lalu, Paul McClelland, Kepala Bagian Hukum untuk Kantor Kekayaan Intelektual Singapura (IPOS International), mengatakan bahwa inti kekuatan AI terletak pada bagaimana teknologi ini melahap begitu banyak data.
“Tapi dari mana data ini berasal? Sering kali, data ini diambil dari internet, sehingga menimbulkan pertanyaan pelik tentang pelanggaran persyaratan layanan dan potensi pelanggaran hak cipta,” tambahnya.
Menurutnya, baik pengembang maupun pengguna harus lebih waspada terhadap risiko hukum yang mungkin ditimbulkan atas penggunaan GenAI.
Berlangganan bulletin GovInsider di sini.
Bagaimana hukum hak cipta oleh AI?
McClelland menyoroti kasus Jason Michael Allen, seorang pencipta seni digital Amerika yang menciptakan gambar yang dihasilkan oleh AI menggunakan Midjourney dan berusaha untuk mendapatkan hak cipta namun pada akhirnya ditolak oleh Instansi Hak Cipta Amerika.
Gambar digital yang diberi nama Théâtre D'opéra Spatial memenangkan penghargaan dalam kategori kompetisi seni tahunan Colorado State Fair untuk seniman digital yang baru muncul pada tahun 2022.
Alasan yang diberikan oleh kantor tersebut adalah karena tidak ada kreativitas manusia yang terlibat dalam pembuatan gambar ini.
“Itu murni komputasi. Dan di bawah sistem hak cipta AS, hal tersebut tidak layak mendapatkan perlindungan hak cipta,” jelas McClelland, dengan mencatat implikasi bahwa karya-karya yang dihasilkan oleh AI saat ini tidak dapat dicegah dari penggandaan tanpa izin.
Karya-karya ini termasuk perangkat lunak, gambar, teks, dan video.
Dia mengilustrasikan hal ini dengan contoh yang mencolok, menampilkan gambar yang dihasilkan oleh AI dari Starry Night karya Van Gogh dengan menggunakan sistem AI DALL-E untuk model teks-ke-gambar.
Meskipun tidak sepenuhnya identik, McClelland mengatakan bahwa replikasi sistem terhadap pilihan ekspresif lukisan tersebut masih mengklasifikasikan gambar tersebut sebagai salinan.
Bahaya data pribadi
Undang-undang perlindungan data pribadi menimbulkan pertanyaan tentang akses data dan hak koreksi dalam sistem AI, kata McClelland.
Di bawah Undang-Undang Perlindungan Data Pribadi (PDP Act) Singapura, subjek data berhak untuk mengakses informasi yang Anda simpan tentang mereka dan meminta informasi tersebut untuk dikoreksi jika salah, katanya.
Namun, mengingat tingginya biaya yang dibutuhkan untuk melatih model bahasa besar (LLM), McClelland mencatat bahwa sangat kecil kemungkinannya data tersebut akan dihapus dalam waktu dekat karena biaya yang harus dikeluarkan.
Dia mengutip pernyataan mantan Kepala Ilmuwan Keputusan Google, Cassie Kozyrkov, mengenai hal ini: “Mencoba menghapus data pelatihan setelah data tersebut dimasukkan ke dalam model bahasa yang besar adalah seperti mencicipi sebuah kue yang besar. Pada dasarnya Anda perlu memulainya dari awal.”
Masalah ini menghadirkan tantangan yang signifikan untuk kepatuhan terhadap peraturan perlindungan data, di mana McClelland mendesak pejabat sektor publik untuk waspada dan patuh dalam melatih model AI.
Tanggung jawab di era AI
Ketika sistem AI menjadi lebih otonom, pertanyaan tentang pertanggungjawaban menjadi semakin kompleks.
Dari mobil yang dapat mengemudi sendiri hingga diagnosis medis bertenaga AI, siapa yang bertanggung jawab ketika terjadi kesalahan?
McClelland menyarankan bahwa konsep “tanggung jawab kelalaian” dapat diterapkan, di mana seseorang yang tindakannya secara wajar dapat diperkirakan menyebabkan kerugian pada orang lain memiliki kewajiban umum untuk menghindari kerugian tersebut.
Karena sistem AI semakin banyak digunakan, penting bagi pejabat publik untuk mempertimbangkan bahaya apa yang dapat ditimbulkan oleh sistem ini jika data pelatihannya salah dan langkah apa yang harus diambil untuk mengurangi bahaya ini.
Jika tidak, maka akan ada potensi pertanggungjawaban hukum dan kelalaian atas tindakan yang dilakukan.
Hal ini juga meluas ke pelanggaran kontrak di mana alat AI tidak memenuhi persyaratan yang dinyatakan dalam kontrak pengadaan, McClelland menyoroti.
Dengan memahami dan menangani risiko ini secara langsung, pejabat sektor publik dapat
memanfaatkan kekuatan AI sekaligus melindungi hak dan kepentingan individu dan masyarakat secara keseluruhan.
Anda dapat menonton video rekaman presentasi McClelland pada acara FOI pada laman ini.
