Skip to main content

Halusinasi AI pada konteks kualitas struktur data ketimbang kuantitas input text bigdata skala raksasa dan mengapa impian mewujudkan ASI ( artificial super intelligence ) tidak dapat tercapai secara optimal ( 2025 )


Artikel ini merupakan kelanjutan dari tulisan saya sebelumnya tentang ASI ( artificial super intelligence ) atau bahasa lainnya disebut AGI ( artificial general intellegence ). 

Masih bersikukuh terhadap pendapat sebelumnya dan saya percaya AGI tidak pernah dapat terwujud di dunia nyata untuk memecahkan permasalahan kompleks di dunia. 

Walaupun saat ini, para peneliti, ilmuwan dan tim teknis enginering komputer sedang berusaha keras untuk mewujudkan ASI. Tetapi hasilnya kelak berakhir sia sia. Sama seperti ambisi mewujudkan chip dibawah 3 nanometer juga gagal karena permasalah overheat ( panas ). 

( Menurut saya, jika pendapat saya benar. Tapi fakta di lapangan bisa saja berbeda ). 

Nah, pada artikel sebelumnya, saya menulis permasalahan ukuran qubit di komputer quantum menjadi penyebab utama kendala mewujudkan ASI bakal berakhir gagal. Pendapat saya, bahwa itu tidak dapat mencapai 1.000 qubit. Hanya bakal mentok di angka kisaran tersebut. 

Namun bukan berarti ASI tidak terwujud. Itu bisa saja terwujud atau terciptakan, namun kemampuannya terbatas sehingga tidak dapat optimal. 

Mewujudkan ASI membutuhkan infrastruktur AI yang kuat, server farm data center raksasa, pemodelan yang canggih, chip semikonduktor yang cerdas dan kombinasi HPC pada super komputer dan quantum computing. Jadi kira kira perlu 10 - 20 tahun lagi dari sekarang agar peneliti sanggup mengembangkan AI ke tahapan generasi teknologi berikutnya yaitu ASI. 

Tahun 2025 - 2030 merupakan awal dari AI Agentic. Setelah itu, lanjut di tahun 2030 - 2050 merupakan pengembangan ASI. Seiring bersamaan dengan pembangunan infrastruktur quantum. Karena untuk menciptakan ASI wajib dan harus pakai komputer quantum. 

Halusinasi ASI. 

Hingga kini, AI masih mengalami halusinasi. Yaitu kondisi respon di mana AI menjadi tidak akurat, salah menjawab, keliru menafsir informasi prompt dan menyesatkan. 

Contoh : mobil otonom AI, tiba tiba menabrak dan terjun ke jurang atau chatbot AI Gemini memberikan jawaban salah kepada pengguna atau robot industri yang sedang bekerja di pabrik seperti biasa, malah tiba tiba robot itu menari sendiri seperti kerasukan setan. 

Apa gerangan penyebab halusinasi AI. Ada banyak faktor. Yaitu data pelatihan tidak memadai, basis data dan model LLM salah dibuat saat coding awal, bias data menyebabkan kesalahan pemahaman parameter AI.

Bahan bakar utama AI adalah data. Tentu saja selain listrik sebagai energi pembangkit mesin komputer. 

Data ini dikumpulkan, diambil dan dihimpun dari sumber terbuka di internet seluruh penjuru dunia dan data tertutup yang telah dibuka atau sudah dibeli. Lalu program memproses data tersebut menjadi simbol, angka, huruf, label, variabel & statistik. Ini disebut ilmu struktur data komputer. Hitungannya tidak sekedar jutaan atau miliaran. Tetapi hingga triliun triliunan. Pekerjaan yang melelahkan, tentu saja.  

Bagi teman teman yang kuliah di IT/SI. Tentu tahu betapa sulitnya mempelajari AI, karena seorang mahasiwa/i juga harus paham matematika diskrit, aljabar algoritma komputer, dll. Belajar ilmu ini bikin otak pecah. 

Dari data itu, lalu diproses pada fase model pengenalan pelatihan pola dan pemprosesan di mesin komputer. 

Bahasa ilmu komputernya disebut "INFERENSI AI". 

Ketika inferensi di tahap awal AI saja sudah menghasilkan halusinasi. Maka ASI juga kelak saya yakin demikian. Tetap bakal terjadi fenomena yang sulit diatasi tersebut. 

Menurut pendapat saya ini disebabkan karena sumber data. Ambil contoh : data simbol 'text'. 

Tidak semua data text itu sesungguhnya berkualitas. Mayoritas banyak berisi 'data sampah'. Halusinasi AI adalah ungkapan AI bahwa ketidakefesienan sedang terjadi sehingga menghasilkan galat ( error ). Oleh sebab itu, dibutuhkan verifikasi data baik berkualitas dan data buruk tidak berkualitas. 

Menggabungkan kedua data 'baik vs buruk'. Justru memperburuk situasi AI yang dapat menyebabkan semakin sering mengalami salah tafsir. Apalagi menyimpan bigdata dalam server farm skala raksasa, hanya menghasilkan pemborosan dan biaya bengkak pada operasional. Alih alih pengen untung, malah jadi buntung karena pembengkakan uang dalam urusan anggaran maintenance. 

Data baik apabila dipaksa dihimpun menyatu dengan data berkualitas buruk di server pemprosesan maka hasilnya 'konslet'. Oleh sebab itu, dibutuhkan pemilahan data atau seleksi data yang diverifikasi oleh manusia agar dapat memilah milih data baik dan data buruk ke storage berbeda. Atau bisa juga dengan menghapus lebih banyak data buruk, dimana AI memilih data mana yang perlu disimpan dan dibuang atau dirangkum menjadi bagian komponen data yang lebih kecil agar menghemat ruang space memory, alih alih harus menampung dalam skala yang terlalu besar. Sehingga arsitekstur pemikiran jernih untuk AI dapat dikelola dengan baik tanpa terpapar bigdata raksasa dengan data buruk. 

Contoh data baik seperti jurnal ilmiah, wikipedia yang terverifikasi, ebook sains, penemuan baru, dll. 

Contoh data buruk seperti ocehan orang orang nakal di media internet, gosip tetangga selingkuh, ucapan kata kata tidak senonoh, makian, mencaci maki orang lain, dll. Itu data sampah yang tidak berguna, hanya bikin AI konslet.

Sedangkan ASI yang mampu berpikir layaknya seperti Albert Einsten. ASI tidak dapat memecahkan semua problem masalah manusia. Hanya memberikan wejangan bahwa ada sesuatu yang realistis dan non-realistis. 

Akibatnya, komputasi ASI tidak akan pernah bisa menemukan obat kanker stadium IV, ASI tidak akan pernah bisa menyembuhkan penyakit diabetes, hipertensi akut, dll. ASI tidak bisa menciptakan manusia super kebal penyakit seperti yang hendak dan ingin diharapkan oleh manusia agar menjadi kenyataan.

ASI justru dapat mengingatkan kepada manusia bahwa seharusnya umat manusia berpikir rasional saja dan paham tentang batasan ketentuan kodrat. Jangan terlalu banyak nonton film fiksi. Karena tidak semua impian menjadi kenyataan. 

Pada intinya, jumlah data informasi penghimpunan ASI ada titik akhirnya dapat berakhir. Sehingga ASI hanya sebagai pihak aktor yang memberitahukan kepada umat manusia tentang sesuatu antara "iya dan tidak' & 'nyata dan semu'. 

Terima kasih. Semoga bermanfaat ya. GBU.