Model bahasa adalah beberapa inovasi paling terkenal dalam teknologi. Memang, Mackenzie menghargainya AI generatif dapat menambah $2,6 hingga $4,4 triliun per tahun pada ekonomi global dan meningkatkan dampak kecerdasan buatan (AI) sebesar 15 hingga 40%.
Namun, meski pasar AI generatif terus berkembang, masih banyak kesalahpahaman dan mitos yang beredar tentang cara kerja model bahasa. Dari berpikir bahwa LLM itu hidup hingga berpikir bahwa mereka dapat membuat konten dengan akurasi tinggi dan tanpa bias, ada sejumlah kesalahpahaman yang perlu diwaspadai oleh pengguna.
Model Bahasa Demistifikasi: 10 Mitos Tentang Kecerdasan Buatan Dibantah
1. Sebuah LLM dapat mencerminkan
Salah satu kesalahpahaman paling umum tentang LLM adalah bahwa mereka dapat berpikir secara mandiri. Faktanya, model bahasa dapat membuat kesimpulan dari kumpulan data dan dapat menghasilkan ringkasan atau teks prediksi, tetapi mereka tidak memahami bahasa alami seperti yang dilakukan manusia.
Mereka memproses masukan pengguna dan menggunakan pola yang mereka pelajari dari data pelatihan untuk menentukan cara merespons. Demikian pula, mereka tidak memahami emosi, sarkasme, dan bahasa gaul. Ini berarti LLM modern jauh dari Kecerdasan Umum Buatan (AGI).
2. Paradigma Bahasa Penciptaan Konten
Sementara LLM dapat digunakan untuk membuat konten, itu tidak membuat secara mandiri atau Membuat konten asli. Sebaliknya, mereka mengambil pola dari konten tertulis atau visual yang mereka amati dalam data pelatihan dan menggunakannya untuk memprediksi dan membuat konten yang didasarkan pada data pelatihannya.
Menggunakan data pelatihan untuk menghasilkan respons adalah praktik yang kontroversial. Misalnya, tiga seniman meluncurkan a Gugatan class action terhadap Stability AI, DeviantArt, dan Midjourneydengan alasan bahwa “karya curian mendukung produk AI ini” karena mereka dilatih tentang gambar berhak cipta yang diambil dari Internet.
3. Semua entri bersifat rahasia
Kesalahpahaman penting lainnya tentang LLM adalah bahwa data yang dimasukkan ke dalam entri sangat rahasia. Ini belum tentu benar. Awal tahun ini, Samsung melarang ChatGPT di tempat kerja setelah seorang karyawan membocorkan data rahasia ke solusi tersebut karena kekhawatiran bahwa informasi yang dibagikan disimpan di server eksternal.
Organisasi yang ingin menggunakan AI generatif harus menyoroti informasi yang dapat dibagikan karyawan dengan model bahasa, jika tidak, mereka berisiko melanggar peraturan perlindungan data seperti Peraturan Perlindungan Data Umum (GDPR).
4. AI generatif 100% akurat
Banyak pengguna membuat kesalahan dengan meyakini bahwa informasi yang dihasilkan oleh alat seperti ChatGPT dan Bard 100% akurat, atau setidaknya akurat secara umum. Sayangnya, model bahasa rentan terhadap halusinasi, yang berarti mereka dapat memalsukan fakta dan informasi dan menyatakannya “dengan percaya diri” seolah-olah itu benar.
Akibatnya, pengguna perlu memastikan bahwa mereka memeriksa ulang fakta dan penjelasan logis sehingga mereka tidak disesatkan oleh informasi yang menyesatkan dan hasil yang tidak logis.
5. LLMS tidak memihak dan tidak memihak
Mengingat bahwa LLM dikembangkan oleh manusia dan meniru bahasa manusia, penting untuk diingat bahwa bias dibangun ke dalam sistem ini, terutama jika terdapat kesalahan pada data pelatihan yang mendasarinya. Ini berarti bahwa pengguna tidak dapat menganggap mereka sebagai sumber yang netral dan tidak memihak.
Bias mesin dapat memanifestasikan dirinya dalam model bahasa dalam bentuk informasi yang tidak akurat, informasi yang salah, atau lebih terang-terangan, dalam bentuk konten yang penuh kebencian atau menyinggung. Sejauh mana bias ini menjadi jelas tergantung pada data dimana model ini dilatih.
6. AI generatif efektif dalam semua bahasa
Meskipun solusi AI generatif dapat digunakan untuk menerjemahkan informasi dari satu bahasa ke bahasa lain, keefektifannya dalam melakukannya bergantung pada popularitas bahasa yang digunakan.
LLM dapat menghasilkan tanggapan persuasif dalam bahasa umum Eropa seperti Inggris dan Spanyol tetapi tidak dapat menghasilkan tanggapan dalam bahasa yang kurang umum digunakan.
7. LLM Melaporkan informasi dari Internet
Model bahasa seperti GPT4 dan GPT 3.5 tidak mengakses Internet secara real time tetapi memproses data pelatihannya (beberapa diambil dari Internet).
Untuk penyedia seperti Google, OpenAI, dan Microsoft, sifat data pelatihan ini sebagian besar disimpan dalam kotak hitam, artinya pengguna tidak memiliki wawasan tentang informasi apa yang digunakan LLM untuk menghasilkan keluaran. Ini berarti bahwa pengguna tidak dapat berasumsi bahwa informasi tersebut terkini atau akurat.
8. LLM dirancang untuk menggantikan personel manusia
Sementara AI memiliki potensi untuk mengotomatiskan jutaan pekerjaan, LLM dalam bentuknya saat ini tidak dapat menggantikan kecerdasan, kecerdikan, dan kreativitas karyawan manusia. AI generatif adalah alat yang dirancang untuk bekerja bersama pekerja pengetahuan, bukan bersama mereka.
Kombinasi keahlian personel bersama dengan skalabilitas dan kemampuan pemrosesan LLM dapat disebut sebagai augmented intelligence.
9. LLM tidak dapat menghasilkan konten berbahaya
Beberapa pengguna mungkin berpikir bahwa pagar perlindungan moderasi konten penyedia seperti OpenAI mencegah orang lain menggunakannya untuk membuat konten yang menyinggung atau berbahaya, tetapi sebenarnya tidak demikian.
Dengan jailbreak dan beberapa klaim inovatif, penjahat dunia maya dapat mengelabui LLM agar membuat kode berbahaya dan email phishing yang dapat mereka gunakan di alam liar untuk mencuri informasi pribadi.
10. Guru dapat terus mempelajari informasi baru
Tidak seperti manusia, LLM tidak mempelajari informasi baru setiap saat tetapi menggunakan teknik pembelajaran mendalam untuk mengidentifikasi pola baru dalam data pelatihan mereka. Pemahaman yang lebih baik tentang pola-pola ini memungkinkan mereka untuk menarik kesimpulan yang lebih rinci dari kumpulan data.
Dengan demikian, organisasi perlu melatih ulang LLM jika mereka ingin mempelajari data baru yang bukan merupakan bagian dari data pelatihan asli.
Model bahasa: terbaik dengan pengawasan
LLM berpotensi menjadi pengganda kekuatan bagi pekerja pengetahuan, tetapi penting untuk bersikap realistis tentang ekspektasi Anda terhadap teknologi jika Anda ingin mendapatkan yang terbaik darinya.
Menyadari halusinasi, bias, dan ketidakakuratan akan membantu menghindari kemungkinan kesalahan informasi dan akan memungkinkan pengguna meningkatkan peluang mereka untuk mengekstraksi wawasan yang nyata untuk meningkatkan pengambilan keputusan mereka.
“Pop culture ninja. Social media enthusiast. Typical problem solver. Coffee practitioner. Fall in love. Travel enthusiast.”