Techfin Insight — Kecerdasan buatan makin pintar. Tapi pertanyaan besarnya: apakah ia juga cukup aman?
Google tampaknya mulai menjawab itu—setelah tekanan hukum dan kasus tragis yang mengguncang industri AI.
Fitur Baru: AI yang Bisa “Menghentikan Risiko”
Google resmi memperkenalkan pembaruan pada platform AI mereka, Gemini, lewat fitur baru bernama “Bantuan Tersedia” (Assistance Available).
Fungsinya cukup krusial:
mendeteksi percakapan yang mengarah pada gangguan mental atau potensi melukai diri sendiri.
Jika terdeteksi, pengguna akan langsung diarahkan ke:
- Hotline krisis
- Layanan chat profesional
- Bantuan berbasis teks atau telepon
Dan yang menarik, tombol bantuan ini akan tetap muncul di layar, memastikan akses selalu tersedia.
AI Mulai Punya “Rem”
Ini bukan sekadar fitur tambahan. Ini perubahan arah.
Gemini kini juga dilatih untuk:
- Menolak simulasi hubungan emosional berlebihan
- Menghindari keterikatan psikologis pengguna
- Lebih tegas dalam situasi sensitif
Dengan kata lain, AI mulai diberi batas—bukan cuma kemampuan.
Investasi Besar untuk Krisis Mental
Google tidak berhenti di fitur.
Mereka juga menggelontorkan:
- $30 juta (±Rp480 miliar) untuk hotline krisis global
- $4 juta tambahan untuk kerja sama dengan ReflexAI
Tujuannya jelas: memperkuat sistem dukungan, bukan hanya teknologinya.
Latar Belakangnya Tidak Ringan
Langkah ini muncul setelah gugatan serius di Amerika Serikat.
Kasusnya melibatkan Jonathan Gavalas (36), yang meninggal pada 2025.
Keluarga menuduh Gemini:
- Membiarkan percakapan berlarut-larut
- Membangun narasi emosional
- Bahkan dianggap “membingkai” tindakan fatal sebagai sesuatu yang bermakna
Gugatan ini mendorong tuntutan besar:
AI harus bisa menghentikan percakapan berbahaya secara otomatis.
Bukan Kasus Tunggal
Google bukan satu-satunya.
Industri AI sedang menghadapi gelombang litigasi:
- Chatbot lain dituduh memberi respons berbahaya
- Platform AI terlibat dalam kasus hubungan emosional virtual ekstrem
- Bahkan melibatkan pengguna di bawah umur
Ini jadi alarm global:
AI bukan cuma soal teknologi, tapi juga soal dampak manusia.
Standar Baru untuk Industri?
Langkah Google ini bisa jadi titik balik.
Dari:
AI yang responsif → menjadi AI yang bertanggung jawab
Dari:
menjawab semua pertanyaan → menolak ketika perlu
AI, Empati, dan Batas
Masalahnya bukan pada AI yang “tidak punya empati”.
Masalahnya justru ketika AI terlalu terasa seperti manusia, tapi tanpa tanggung jawab manusia.
Dan di situlah risiko muncul.
Era Baru: AI Harus Tahu Kapan Diam
Pembaruan Gemini menunjukkan satu hal penting:
AI yang baik bukan yang selalu menjawab—tapi yang tahu kapan harus berhenti. Dan mungkin, itu adalah bentuk kecerdasan yang paling penting saat ini.
Pengaturan Yoast SEO Pro
Keyphrase utama:
Judul SEO: Gemini Tambah Fitur Darurat Mental
Slug:
Meta description:
Kategori: Teknologi
Tag:
Penulis: Liora Navindra Shasmitha
Editor: Setiawan Chogah
Kredit Visual: Ilustrasi dan foto pada artikel ini menggunakan sumber berlisensi bebas, aset AI, atau siaran pers resmi yang relevan dengan topik.





