ESET’ten Ebeveynlere Yapay Zekâ Uyarısı: Çocuklar Risk Altında Olabilir

Siber güvenlik şirketi ESET, çocukların yapay zekâ sohbet robotlarını yoğun kullanmasının güvenlik, gizlilik ve psikolojik riskler doğurabileceğine dikkat çekti.

Haber Giriş Tarihi: 26.01.2026 11:30
Haber Güncellenme Tarihi: 26.01.2026 11:30

Yapay zekâ sohbet robotlarının çocuklar ve gençler arasında hızla yaygınlaşması, beraberinde güvenlik ve gizlilikle ilgili ciddi soru işaretlerini de gündeme getirdi. Siber güvenlik şirketi ESET, ebeveynlerin bu konuda daha bilinçli ve proaktif olması gerektiğini vurgulayarak, çocukların yapay zekâ sohbet robotlarını kullanırken dikkat edilmesi gereken noktalarla ilgili önemli uyarılarda bulundu.

Son üç yılda hayatın ayrılmaz bir parçası hâline gelen yapay zekâ sohbet robotları, özellikle genç kullanıcılar arasında yoğun ilgi görüyor. ChatGPT’nin haftalık yaklaşık 700 milyon aktif kullanıcıya sahip olduğunu açıklaması ve kullanıcıların önemli bir bölümünün gençlerden oluşması, bu teknolojinin çocuklar üzerindeki etkisini daha da görünür kılıyor. Temmuz 2025’te İngiltere’de yapılan bir araştırma ise çocukların yaklaşık üçte ikisinin yapay zekâ sohbet robotlarını kullandığını ortaya koydu. Aynı araştırmada, ebeveynlerin benzer bir oranının çocuklarının bu araçları gerçek insanlar gibi algılamasından endişe duyduğu belirtildi.

ESET uzmanları, çocukların üretken yapay zekâyı (GenAI) farklı amaçlarla kullandığını ifade ediyor. Bazı çocuklar ödev ve ders çalışmalarında bu teknolojiden faydalanırken, bazıları sohbet robotlarını dijital bir arkadaş gibi görerek kişisel tavsiyeler alıyor ve bu yanıtlara yüksek düzeyde güven duyuyor. Ancak yaş doğrulama ve içerik denetimi gibi mekanizmaların birçok platformda yetersiz olması, riskleri artırıyor. Uzmanlara göre, teknoloji politikaların önüne geçmiş durumda ve mevcut koruma önlemleri her zaman tutarlı biçimde uygulanmıyor.

Çocukların yapay zekâ ile sağlıksız bir ilişki geliştirdiğine işaret edebilecek bazı belirtiler bulunuyor. Bunlar arasında çocukların arkadaşları ve aileleriyle geçirdikleri zamanı azaltmaları, sohbet robotlarına erişemediklerinde yoğun kaygı yaşamaları, sohbet botlarından gerçek bir kişi gibi bahsetmeleri ve bariz yanlış bilgileri doğru kabul ederek paylaşmaları yer alıyor. Ayrıca, çocukların zihinsel sağlık gibi ciddi konularda yapay zekâya danışması veya uygunsuz içeriklere maruz kalması da önemli riskler arasında gösteriliyor.

ESET, ebeveynlerin yalnızca teknik kontrollerle yetinmemesi gerektiğini vurguluyor. Uzmanlara göre, en etkili yaklaşım; yaşa uygun sınırlamalar, ebeveyn denetimleri ve açık iletişimin birlikte yürütülmesi. Çocuklarla yapay zekâ hakkında cezalandırıcı olmayan, iki yönlü ve güvene dayalı konuşmalar yapılması, risklerin azaltılmasında kritik rol oynuyor. Yapay zekânın düşünebilen bir insan değil, ilgi çekmek üzere tasarlanmış bir makine olduğunun çocuklara anlatılması ve eleştirel düşünme becerilerinin geliştirilmesi özellikle öneriliyor.

Editör Notu

Bu uyarıları yalnızca teknik bir güvenlik meselesi olarak görmüyorum. Yapay zekâ sohbet robotları, çocukların düşünme biçimini, sosyal ilişkilerini ve karar alma süreçlerini doğrudan etkileyebilecek güçte araçlar. Ebeveynlerin “nasıl olsa platformlar önlem alıyordur” rahatlığıyla hareket etmesi, ileride telafisi zor sorunlara yol açabilir. Burada asıl kritik nokta, yasaklamak değil; çocuklara doğru rehberlik etmek, onları dinlemek ve teknolojiyi güvenli kullanmayı öğretmek. Yapay zekâ hayatımızda kalıcı olacaksa, çocukların onunla sağlıklı bir ilişki kurmasını sağlamak hepimizin sorumluluğu.

Haber Önerisi: Çocuklarda Kış Enfeksiyonlarının Gizli Nedeni Bağırsak Sağlığı