Copyright © 2024 Tüm hakları saklıdır. News Tanıtım

Tekno Dart – Teknodar.com

  1. Anasayfa
  2. »
  3. Bilim & Teknoloji
  4. »
  5. Yapay Zeka Karar Alma Süreçlerinde İnsan Hatalarını Yapıyor

Yapay Zeka Karar Alma Süreçlerinde İnsan Hatalarını Yapıyor

haber haber -
38 0

OpenAI tarafından geliştirilen ChatGPT yapay zeka modeli, insanların düştüğü karar alma hatalarını tekrarlayarak yapay zekanın da insan gibi yanılgılar sergilediğini ortaya koydu. INFORMS dergisi Manufacturing & Service Operations Management’ta yayımlanan araştırma, yapay zekanın beklenenden daha çok insan benzeri davrandığını gösteriyor.

İnsanları Anımsatan Yanılgılar

Araştırmacılar, ChatGPT’yi 18 farklı önyargı testine tabi tuttu ve modelin insanlara özgü bilişsel tuzaklara düştüğünü tespit etti. Yapay zeka matematik ve mantık problemlerinde başarılı olsa da öznel yargı gerektiren kararlarda zorlanıyor. Riskli seçenekler yerine temkinli davranmayı tercih eden ChatGPT, kendi doğruluğunu abartarak karar alma süreçlerinde hatalar yapıyor.

Yapay Zeka ve Önyargılar

Yeni nesil GPT-4 modeli analitik açıdan daha başarılı olsa da yargı temelli görevlerde önyargıları daha belirgin hale getiriyor. Uzmanlar yapay zekanın insan verilerinden öğrenirken bu önyargıları da öğrendiğini belirtiyor. Bu durum, yapay zekanın tarafsız bir karar verici olmaktan uzak olduğunu gösteriyor.

Etiğin Önemi

Araştırma yapay zekanın insan önyargılarını pekiştirme riski taşıdığını ortaya koyuyor. Uzmanlar, yapay zekanın denetlenmesi ve etik kurallarla yönlendirilmesi gerektiğini savunuyor. Yapay zekanın insan kusurlarını kopyalamak yerine gerçek anlamda faydalı bir araç haline gelmesi için düzenli denetim ve model geliştirme şart görünüyor.

Sonuç

ChatGPT, insan gibi karar alma hataları yaparken matematikte başarılı ancak yargılarda zayıf kalıyor. Uzmanlar yapay zekanın iş ve kamu yönetiminde kullanımının denetlenmesi gerektiğini vurgulayarak yapay zekanın insan kusurlarını yansıttığını belirtiyor.

İlgili Yazılar