Large Language Models as Simulated Economic Agents: What Can We Learn from Homo Silicus?

Araştırma Soruları

  • LLM’ler davranışsal ekonomi deneylerinde insan ajanlarını taklit edebilir mi?
  • Bu deneyler LLM’lerle yeniden üretilebilir ve yeni parametrelerle genişletilebilir mi?
  • LLM’ler farklı özelliklerle “donatıldığında” (endowment) insan benzeri çeşitli bakış açılarını temsil edebilir mi?

Sonuçlar

  • GPT-3, davranışsal ekonomi deneylerindeki insan bulgularını niteliksel olarak yeniden üretebildi.
  • Daha gelişmiş modeller (ör. davinci-003) daha başarılı çıktı; küçük modeller endowment etkilerini yansıtmakta başarısız oldu.
  • LLM deneyleri insan deneylerine göre çok hızlı ve düşük maliyetli.
  • LLM’ler farklı kişilikler veya görüşlerle “donatılarak” çeşitlendirilmiş ajanlar gibi davranabiliyor.

Bulgular

  • Deney tekrarları: Sosyal tercihler, adalet yargıları, statüko önyargısı gibi klasik bulgular LLM’lerle yeniden üretildi.

  • Çeşitlilik: Modeller farklı politik görüşler veya tercihlerle yönlendirildiğinde yanıtları öngörülebilir biçimde değişti.

  • Sınırlı modeller: Daha basit GPT-3 varyantları (ada, babbage, curie) endowment etkisini çoğu zaman yansıtamadı.

  • Ezber riski: LLM’lerin eğitim verilerinde bu deneylere dair bilgiler olması, özgünlük sorununu gündeme getiriyor.

  • Etik: İnsan deneklere gerek kalmadan deney yapılabilmesi avantaj olsa da, AI yanıtlarının sahiciliği ve yanlış temsil riski tartışmalı.

  • LLM Modelleri: 5

  • Sentetik Veri: 4

  • Yöntem: 4

  • Hız: 4

  • Etik: 3

  • Doğruluk Oranı: 3

  • Demografi: 2

Bu makale ile ilgili daha detaylı bilgiye ulaşmak isterseniz buraya tıklayarak ilgili makalenin ekine ulaşabilirsiniz.

5 dakikalık okuma

Diğer ilgili yazılarımız