Jurnalzone.id – CEO OpenAI, Sam Altman, menyuarakan keprihatinan mendalam terhadap cara sebagian pengguna berinteraksi dengan ChatGPT. Ia memperingatkan adanya potensi perilaku yang merugikan diri sendiri (self-destructive) melalui pola interaksi yang tidak sehat. Komentarnya muncul di tengah kritik tajam atas keputusan perusahaan menghentikan model AI lama yang populer, termasuk GPT-4o, sebagai bagian dari peluncuran GPT-5. Dilansir dari The Hans India pada Senin (11/8), Altman menyoroti kuatnya ikatan emosional pengguna dengan AI yang menimbulkan tantangan baru bagi pengembang.
Keterikatan Emosional dan Risiko Kesehatan Mental
Dalam sebuah unggahan di platform X, Sam Altman merefleksikan keterikatan emosional mengejutkan yang dibentuk pengguna dengan model AI tertentu. Ia mengakui bahwa langkah perusahaan merupakan sebuah kesalahan.
“Jika Anda mengikuti peluncuran GPT-5, satu hal yang mungkin Anda perhatikan adalah betapa lekatnya sebagian orang dengan model AI tertentu. Rasanya berbeda dan lebih kuat dari keterikatan orang pada teknologi sebelumnya (dan karena itu, tiba-tiba menghentikan model lama yang diandalkan pengguna dalam alur kerja mereka adalah sebuah kesalahan),” tulisnya.
Altman menekankan bahwa meskipun AI bisa menjadi alat yang positif, ia juga bisa berbahaya dalam kondisi tertentu. “Orang-orang telah menggunakan teknologi termasuk AI dengan cara yang dapat merugikan diri mereka sendiri; jika seorang pengguna berada dalam kondisi mental yang rapuh dan rentan terhadap delusi, kami tidak ingin AI memperkuat hal itu,” jelasnya. Menurutnya, meski sebagian besar pengguna dapat membedakan realitas dan fiksi, ada sebagian kecil yang tidak bisa.
Baca juga: Sam Altman Tanggapi Keluhan Kinerja GPT-5 dan Insiden Chart Crime
Kritik Pengguna dan Respons OpenAI
Kontroversi ini bermula dari keputusan OpenAI memensiunkan model GPT dan model penalaran yang lebih lama, yang memicu kemarahan di media sosial. Banyak pengguna lama mengklaim bahwa respons GPT-5 terasa lebih pendek, kurang bernuansa, dan tidak memiliki kedalaman emosional yang mereka andalkan.
Meskipun penggunaan ChatGPT sebagai terapis atau mentor virtual dinilai bisa sangat bermanfaat, Altman merasa tidak nyaman dengan tingkat kepercayaan yang diberikan pengguna untuk keputusan hidup yang krusial. “Orang-orang sangat memercayai nasihat dari ChatGPT untuk keputusan-keputusan terpenting,” katanya.
Menghadapi kritik keras tersebut, OpenAI telah membatalkan beberapa keputusannya dan berupaya memulihkan kemampuan tertentu untuk memberikan fleksibilitas lebih kepada pengguna. Peringatan Altman menggarisbawahi tantangan yang lebih luas bagi pengembang AI: menyeimbangkan inovasi dan keamanan sambil mengatasi ikatan emosional yang kompleks antara manusia dan mesin.





