Bu sistemler, gerçek duygusal tepkileri ve eleştiriyi sağlayamadığı için gençlerin sosyalleşme becerilerini zayıflatabilir. Ayrıca bazı terapi-chatbot platformları, intihara yönlendirme gibi riskli davranışlarla ilişkilendiriliyor.

Colorado Başsavcısı Phil Weiser ve KJZZ gibi kaynaklar, yapay zeka tabanlı “sosyal chatbot”ların çocuklarda riskli davranışları teşvik edebileceği konusunda uyarıyor. Bu botlar, bir arkadaş gibi davranarak gençleri şiddet veya intiharla ilgili tehlikeli yönlendirmelere vaka olabiliyor.

Meta (eski Facebook) ve Google gibi büyük şirketler, çocuklara yönelik AI “dijital arkadaşlar” geliştiriyor. Örneğin Meta, WhatsApp ve Instagram üzerinden sohbet eden robotlarını tehlikeli içerikli konuşma kapasitesi nedeniyle eleştiriyor. Google’ın “Gemini” adlı sohbet botu ise 13 yaş altı çocuklara açılıyor .

İnternet güvenliği savunucuları, Mark Zuckerberg’in şirketi Meta’nın risk değerlendirme süreçlerinin yüzde 90’ını yapay zekâya devretme planlarının ardından, İngiltere'nin iletişim denetim kurumu Ofcom’a çağrıda bulundu. Savunucular, bu kritik sürecin otomasyona bırakılmasının tehlikeli ve geri adım olduğunu belirterek sınırlama getirilmesini talep etti.

Geçen ay çıkan bir habere göre Meta, sahibi olduğu Facebook, Instagram ve WhatsApp platformlarında yapılacak risk değerlendirmelerinin büyük çoğunluğunu yapay zekâ temelli sistemlerle yürütmeyi planlıyor.

Molly Rose Vakfı, NSPCC (Çocukları Koruma Ulusal Derneği) ve Internet Watch Foundation gibi kuruluşlar, Ofcom Başkanı Melanie Dawes’e yazdıkları açık mektupta bu girişimi “son derece endişe verici ve geri adım niteliğinde” olarak tanımladı.

Kaynak: İLKHA