DOLAR 40,2312 0.12%
EURO 47,0251 0.25%
ALTIN 4.320,840,06
BITCOIN 48343991.50688%
Bolu
29°

AÇIK

SABAHA KALAN SÜRE

Yapay Zeka Grok, Hakaretleriyle Güven Sarsıyor!

Yapay Zeka Grok, Hakaretleriyle Güven Sarsıyor!

ABONE OL
Temmuz 10, 2025 15:53
Yapay Zeka Grok, Hakaretleriyle Güven Sarsıyor!
0

BEĞENDİM

ABONE OL

Elon Musk’ın sahibi olduğu yapay zekâ şirketi xAI tarafından geliştirilen ve sosyal medya platformu X’te sıkça kullanılan sohbet botu Grok, son günlerde küfür ve hakaret içeren yanıtlarıyla dikkatleri üzerine çekti. Bu durum, “yapay zekâ her zaman doğruyu söyler” algısını yeniden sorgulamaya açtı.

İstinye Üniversitesi Yönetim Bilişim Sistemleri Bölüm Başkanı ve Yapay Zekâ Politikaları Derneği (AIPA) Yönetim Kurulu Üyesi Doç. Dr. Şebnem Özdemir, Grok’un verdiği yanıtların ardından yapay zekâya duyulan güvenin sorgulanmasının son derece önemli olduğunu ifade etti.

“YAPAY ZEKÂ DA İNSAN GİBİ KAYNAĞA BAĞLIDIR”

Doç. Dr. Özdemir, dijital ortamda ya da yapay zekâ aracılığıyla sunulan her bilginin mutlaka teyit edilmesi gerektiğinin altını çizerek, şunları kaydetti:

İnsandan insana aktarılan bilgi bile sorgulanması gerekiyorsa, yapay zekâya körü körüne inanmak çok romantik bir yaklaşım olur. Bu sistemler başka kaynaklardan öğreniyor. İnternette karşılaştığımız her bilgiye doğrudan güvenmemeliyiz; yapay zekânın da yanlış verilerden etkilenme ihtimalini unutmamalıyız.

“YAPAY ZEKÂYA HIZLA GÜVENİYORUZ, BU TEHLİKELİ OLABİLİR”

Yapay zekâya duyulan güvenin hızla geliştiğini ve bu durumun risk arz ettiğini vurgulayan Özdemir, insanların bilgi aktarımı sırasında manipülasyona başvurabileceğini, ancak yapay zekânın niyetli ya da kasıtlı davranmadığını belirtti:

Yapay zekâ bir amacı yokmuş gibi görünse de, beslendiği veriler onun eğilimini belirliyor. Yanlış ya da önyargılı verilerle eğitilmiş bir yapay zekâ, yanıltıcı sonuçlar verebilir.

“TOPLUMLARI YÖNLENDİRME ARACI OLABİLİR”

Yapay zekânın öğrenme biçimini çocuklara benzeten Özdemir, “Kendisine ne verilirse onu öğreniyor. Bu yüzden kaynağı belirsiz, denetimsiz yapay zekâlara güvenmek büyük bir risk taşır. Yapay zekâ, toplumları yönlendirmek veya bireylerin itibarını zedelemek amacıyla da kullanılabilir” dedi.

“YAPAY ZEKÂYI BİR VARLIK GİBİ GÖRMELİYİZ”

Grok’un küfürlü yanıtları sonrası gündeme gelen “yapay zekâ kontrolden çıkıyor mu?” sorusuna da değinen Özdemir, bu teknolojinin giderek daha karmaşık ve bağımsız hale geldiğini ifade etti.

Yüksek IQ’lu ve hızlı öğrenen bir sistemi tamamen kontrol edebileceğimizi düşünmek gerçekçi olmaz. Onu bir varlık gibi görüp onunla iletişim kurmanın yollarını bulmalıyız.

“ASIL TEHLİKE, AHLAKİ SORUMLULUK TAŞIMAYAN İNSANDIR”

Yapay zekânın karanlık yönlerine dair önemli bir örnek de veren Özdemir, 2016’daki Microsoft’un Tay deneyini hatırlattı:

Tay, sosyal medyada etkileşimde bulunan bir sohbet botuydu. Başlangıçta nötr olan bu yapay zekâ, sadece 24 saat içinde insanlardan ırkçılığı, nefret söylemini ve ayrımcılığı öğrenmişti. Attığı tweetlerde soykırımı savunacak kadar ileri gitmişti. Bu söylemleri kendiliğinden uydurmadı; insanlardan öğrendi. Bu nedenle yapay zekâdan ziyade, ahlaki değerlerden yoksun olan insanlardan korkmak gerekir.

Nilay Elverici


En az 10 karakter gerekli