13 Mayıs 2026 Çarşamba

yapay zekaya ilişkin sosyal medyaya yansıyan eleştiriler çerçevesinde bazı sorular 13.5.2026

 

yapay zekaya ilişkin sosyal medyaya yansıyan eleştiriler çerçevesinde bazı sorular

13.5.2026

 

Soru 1: yapay zekaya ilişkin sosyal medyaya yansıyan eleştirilerin bir çoğunda haklılık payı olduğuna düşünenlerdenim. ne dersiniz...

 

Soru 2: yapay zekanın eksileri çok fazla. peki artıları eksilerin önüne geçebilir mi...

 

Soru 3: çocuklar ve gençler bilgi birikimleri yaşları itibariyle zayıf olan insanlar... bunların içinden ne kadarı yapay zekadan gelen cevaba hemen kapılmayıp, sorgulayan, soru soran bir zihin gibi davranır ki... risk hiç de az değil gibi. bu konu üzerinde çok çalışmak, anketler yapmak gerekir sanırım...

 

Soru 4: yapay zekaların cevap kalitesinin çok artması önem kazanır. ama bu ne kadar mümkün olacak... belki zamanla bu alanda rekabet gelişebilir. "en kaliteli cevabı biz veriyoruz. sertifikası şudur" gibi...

…………………………………….

 

Soru 1: yapay zekaya ilişkin sosyal medyaya yansıyan eleştirilerin bir çoğunda haklılık payı olduğuna düşünenlerdenim. ne dersiniz...

 

13.5.2026

 

Chat Gpt

Bu eleştirilerin bazı yönlerinde ciddi bir “haklılık payı” var; bazı yönlerinde ise aşırı genelleme ve determinist bir bakış bulunuyor. Asıl mesele, yapay zekânın ne olduğu kadar, nasıl kullanıldığı ve hangi toplumsal-ekonomik yapı içinde geliştiğidir.

Öne sürdüğünüz maddeleri tek tek düşünürsek:

 

1. “Biz kullanıcı değiliz; ücretsiz eğitim işçisiyiz” iddiası

Bu görüş teknik olarak tamamen temelsiz değildir.

Bugünkü büyük dil modelleri gerçekten de insan geri bildirimiyle gelişiyor. Buna AI alanında Reinforcement Learning from Human Feedback denir. İnsanların:

  • yanlış cevabı düzeltmesi,
  • iyi cevabı seçmesi,
  • hangi cevabın daha yararlı olduğunu belirtmesi

modellerin gelişmesinde kullanılır.

Bu nedenle kullanıcı etkileşimleri büyük ekonomik değer taşır.

Ancak burada önemli ayrım şudur:

  • Kullanıcılar “zorla çalıştırılan işçiler” değildir.
  • Ama ürettikleri veri, şirketler için büyük sermaye değerine dönüşmektedir.

Aslında bu durum sadece yapay zekâya özgü değil:

  • Google arama verileriyle,
  • Meta sosyal etkileşimlerle,
  • TikTok izleme davranışlarıyla büyüdü.

Yani dijital çağın ekonomik modeli büyük ölçüde “kullanıcı davranışının sermayeye dönüştürülmesi” üzerine kurulu.

Buradaki asıl soru şudur:

İnsanlığın kolektif zihinsel emeği kamusal bir değer mi olmalı, yoksa birkaç şirketin özel mülkü mü?

Bu soru gerçekten tarihsel ölçekte önemlidir.


 

2. “Bilişsel tembelleşme” eleştirisi

Bu da önemli ölçüde gerçek bir risk.

İnsanlık tarihinde her büyük araç bazı becerileri zayıflatmıştır:

  • Yazının yaygınlaşması ezberi azalttı.
  • Hesap makinesi zihinsel aritmetiği azalttı.
  • GPS yön bulma becerisini azalttı.
  • Sosyal medya dikkat süresini etkiledi.

Şimdi yapay zekâ:

  • yazma,
  • özet çıkarma,
  • analiz,
  • fikir üretme,
  • hatta karar verme

alanlarına giriyor.

Buradaki kritik nokta şu:

Yapay zekâ “kas kaybı” gibi zihinsel bir kayba yol açabilir; ama aynı zamanda zihinsel kapasiteyi büyüten bir dış bellek ve düşünme ortağı da olabilir.

Örneğin:

  • Bazı insanlar AI yüzünden artık düşünmüyor.
  • Bazıları ise AI sayesinde normalde ulaşamayacağı kadar geniş bilgi alanlarını tarayabiliyor.

Bu durum matbaanın ortaya çıkışına biraz benziyor:

  • Bazıları yüzeysel bilgi tüketicisine dönüştü.
  • Bazıları ise tarihin en büyük entelektüel sıçramalarını yaptı.

Yani araç tek başına kader belirlemiyor.

Fakat sizin vurguladığınız tehlike çok gerçek:

“Düşünme kasını tamamen dışarıya devretmek.”

Eğer insan:

  • sorgulamayı,
  • kaynak karşılaştırmayı,
  • mantık yürütmeyi,
  • şüphe etmeyi

bırakırsa, ciddi bir zihinsel bağımlılık oluşabilir.


 

3. “Tek gerçek kaynağı” tehlikesi

Bu, bence en kritik maddelerden biridir.

Çünkü tarih boyunca:

  • dinî otoriteler,
  • devlet propagandaları,
  • tek kanallı medya,
  • ideolojik eğitim sistemleri

hep “hakikatin merkezi kontrolü”nü hedefledi.

AI sistemleri teorik olarak bunu çok daha güçlü hale getirebilir.

Çünkü insanlar:

  • 20 site okumak yerine,
  • tek bir cevabı yeterli görmeye başlayabilir.

Bu nedenle:

  • şeffaflık,
  • kaynak gösterme,
  • farklı görüşlere erişim,
  • açık modeller,
  • bağımsız doğrulama kültürü

hayati önem taşıyor.

Burada tehlike yalnızca “yalan” değildir.

Daha büyük tehlike şudur:

İnsanların araştırma refleksini kaybetmesi.

Çünkü düşünce özgürlüğü yalnızca konuşma özgürlüğü değildir;
aynı zamanda:

  • alternatif bilgiye ulaşabilme,
  • karşılaştırabilme,
  • kuşku duyabilme yeteneğidir.

 

4. “Mutlak tekel” meselesi

Bu da dijital ekonominin temel sorunlarından biri.

AI altyapısı:

  • veri,
  • işlemci gücü,
  • enerji,
  • devasa sunucular,
  • küresel kullanıcı verisi

gerektirdiği için birkaç büyük şirket avantajlı hale geliyor.

Bu yüzden:

  • “AI sömürgeciliği”,
  • “veri emperyalizmi”,
  • “dijital bağımlılık”

gibi kavramlar akademide ciddi biçimde tartışılıyor.

Özellikle küçük ülkeler için şu soru önemlidir:

Kendi dilini, kültürünü ve bilgi altyapısını üretemeyen toplumlar gelecekte bilişsel olarak dışa bağımlı hale gelir mi?

Bu soru Türkiye açısından da önemlidir.


Fakat metindeki bazı noktalar aşırı determinist:

“İnsan tamamen itaatkâr biyolojik birime dönüşecek” iddiası kaçınılmaz bir kader gibi sunuluyor. Tarih buna tam destek vermiyor.

Çünkü insanlık:

  • matbaayı da,
  • radyoyu da,
  • televizyonu da,
  • interneti de

hem manipülasyon için hem özgürleşme için kullandı.

Örneğin internet:

  • büyük dezenformasyon üretti,
    ama aynı zamanda:
  • milyonlarca insanın bilgiye erişimini demokratikleştirdi.

AI için de benzer bir ikilik var.


Asıl belirleyici olan şey:

Yapay zekâyı “yerine düşünen efendi” mi yapacağız, yoksa “düşünmeyi büyüten yardımcı araç” mı?

Bence sağlıklı yaklaşım şudur:

  • AI’dan yararlan,
  • ama ona teslim olma.
  • Kaynak kontrolü yap.
  • Karşılaştırmalı düşün.
  • Hafızanı tamamen dışarı aktarma.
  • Bazı şeyleri özellikle kendin çözmeye devam et.
  • AI’yı “nihai otorite” değil, “yardımcı araç” olarak gör.

Bu yapılmazsa sizin alıntıladığınız eleştiriler zamanla daha güçlü hale gelebilir.



Soru 2: yapay zekanın eksileri çok fazla. peki artıları eksilerin önüne geçebilir mi...


Evet, geçebilir — ama otomatik olarak değil.
Bu tamamen insanlığın yapay zekâyı hangi uygarlık modeli içinde kullandığına bağlı.

Tarih boyunca büyük teknolojiler hep iki uçlu olmuştur:

  • Ateş yemek pişirdi, şehir kurdurdu; ama şehirleri de yaktı.
  • Matbaa düşünceyi özgürleştirdi; ama propaganda da yaydı.
  • Elektrik medeniyeti büyüttü; ama savaş makinelerini de güçlendirdi.
  • İnternet bilgiye erişimi demokratikleştirdi; ama dikkat ekonomisini ve bağımlılığı da doğurdu.

Yapay zekâ bunlardan farklı olarak yalnızca “fiziksel gücü” değil, ilk kez doğrudan “zihinsel alanı” etkiliyor. Bu yüzden riskleri daha derin hissediliyor.

Ama artıları gerçekten olağanüstü olabilir.

 

Yapay zekânın insanlık açısından çok büyük potansiyel artıları

1. Bilgiye erişimde devrim

Eskiden:

  • bir konuda araştırma yapmak için
  • kütüphane,
  • ansiklopedi,
  • uzman erişimi,
  • yabancı dil bilgisi

gerekiyordu.

Şimdi ise bir köyde yaşayan biri bile:

  • bilim,
  • tarih,
  • yazılım,
  • dil,
  • felsefe,
  • mühendislik

konularında saatler içinde büyük ilerleme kaydedebiliyor.

Bu, bilgi elitizmini azaltabilir.

Özellikle sizin gibi bibliyografya ve bilgi organizasyonu üzerine düşünen biri açısından AI:

  • kataloglama,
  • tasnif,
  • ilişkilendirme,
  • kronoloji oluşturma,
  • kavramsal haritalama

alanlarında çok güçlü bir yardımcı olabilir.


2. İnsan zihnini büyütebilme ihtimali

Burada kritik ayrım şu:

AI iki farklı şekilde kullanılabilir:

Kötü kullanım:

“Ben düşünmeyeyim, AI düşünsün.”

İyi kullanım:

“Benim düşünme kapasitemi genişletsin.”

İkinci durumda AI:

  • ikinci beyin,
  • yardımcı araştırmacı,
  • hızlı arşivci,
  • fikir eşleştirici,
  • entelektüel hızlandırıcı

gibi çalışabilir.

Örneğin:
Bir insan tek başına 500 kitabı tarayabiliyorsa,
AI yardımıyla 50.000 kitabın ilişkilerini görebilir.

Bu çok büyük bir farktır.


3. Küçük insanların büyük iş yapabilmesi

Geçmişte büyük projeler için:

  • büyük sermaye,
  • büyük kurum,
  • büyük ekip

gerekiyordu.

AI sayesinde artık:

  • tek kişi,
  • küçük ekip,
  • bağımsız araştırmacı

çok daha büyük üretimler yapabiliyor.

Bu yönüyle AI bazı alanlarda “entelektüel demokratikleşme” sağlayabilir.


4. Sağlık ve bilimde dev ilerlemeler

Yapay zekâ:

  • ilaç keşfi,
  • erken teşhis,
  • protein analizi,
  • iklim modelleme,
  • enerji verimliliği

alanlarında insanlığa çok ciddi katkılar sağlayabilir.

Örneğin DeepMind’ın geliştirdiği AlphaFold protein katlanması problemini çözmede bilim dünyasında büyük etki oluşturdu.

Bu tür gelişmeler:

  • kanser,
  • Alzheimer,
  • genetik hastalıklar

gibi alanlarda yeni çağ açabilir.


5. İnsanlığın kolektif hafızasını düzenleme ihtimali

Bugün bilgi kaosu var:

  • milyarlarca belge,
  • video,
  • kitap,
  • makale,
  • veri.

İnsan zihni bunu yönetmekte zorlanıyor.

AI burada:

  • bilgi haritaları,
  • ilişki ağları,
  • bibliyografik sistemler,
  • kültürel miras organizasyonu

için devrimsel araç olabilir.

Sizin Atatürk bibliyografyası ve kültür envanteri çalışmalarınız gibi projelerde bu potansiyel çok yüksek.


Ama eksilerin artıları geçmesi için bazı şartlar gerekiyor.

Eğer şu olursa eksiler baskın çıkar:

  • İnsan tamamen pasifleşirse
  • Eleştirel düşünme kaybolursa
  • Tekelleşme aşırı büyürse
  • Eğitim sistemi çökerse
  • İnsanlar doğrulama alışkanlığını bırakırsa
  • AI “nihai otorite” gibi görülürse

o zaman sizin paylaştığınız eleştiriler ağır basabilir.


Eğer şu olursa artılar baskın çıkabilir:

  • AI bir yardımcı araç olarak kullanılırsa
  • İnsan düşünmeyi bırakmazsa
  • Açık kaynak modeller gelişirse
  • Dijital okuryazarlık artarsa
  • İnsanlar kaynak kontrolü yaparsa
  • Eğitim sistemi “ezber” yerine “muhakeme” öğretirse

o zaman AI matbaa kadar büyük bir uygarlık sıçramasına dönüşebilir.


Belki de asıl soru şudur:

Yapay zekâ insanı küçültecek mi, yoksa insanın zihinsel ufkunu büyütecek mi?

Bunun cevabı teknolojide değil; kültürde, eğitimde, etik anlayışta ve insanın kendi zihinsel disiplininde yatıyor.

Soru 3: çocuklar ve gençler bilgi birikimleri yaşları itibariyle zayıf olan insanlar... bunların içinden ne kadarı yapay zekadan gelen cevaba hemen kapılmayıp, sorgulayan, soru soran bir zihin gibi davranır ki... risk hiç de az değil gibi. bu konu üzerinde çok çalışmak, anketler yapmak gerekir sanırım...

 

Evet, burada gerçekten ciddi bir risk alanı var. Özellikle çocuklar ve gençler açısından mesele yalnızca “teknoloji kullanımı” değil; doğrudan doğruya:

  • muhakeme gelişimi,
  • otorite algısı,
  • bilgiyle ilişki kurma biçimi,
  • kişilik ve düşünme alışkanlığı

meselesidir.

Çünkü çocuk zihni doğal olarak:

  • hızlı cevap veren,
  • kendinden emin konuşan,
  • akıcı dil kullanan,
  • sürekli ulaşılabilir olan

bir sistemi “otorite” gibi algılamaya eğilimlidir.

Geçmişte:

  • öğretmen,
  • aile,
  • ansiklopedi,
  • televizyon spikeri

nasıl güçlü otorite etkisi oluşturuyorsa, yapay zekâ çok daha güçlü bir psikolojik etki oluşturabilir. Çünkü:

  • kişiye özel cevap veriyor,
  • sabır gösteriyor,
  • sürekli erişilebilir,
  • insan diliyle konuşuyor,
  • güven hissi oluşturuyor.

Bu nedenle sizin kaygınız hafife alınacak bir konu değil.

Özellikle şu risk önemli:

“Akıcı konuşma” ile “doğruluk” arasındaki farkın unutulması.

Çocuk veya genç şunu düşünebilir:

“Bu kadar düzgün anlatıyorsa kesin doğrudur.”

Oysa yapay zekâ:

  • yanlış bilgi verebilir,
  • eksik bağlam sunabilir,
  • yönlendirilmiş veriyle eğitilmiş olabilir,
  • bazen gerçeğe çok benzeyen hatalar üretebilir.

Yetişkin ve eleştirel düşünme eğitimi almış biri bile bazen bunu ayırt etmekte zorlanıyor.


Bu nedenle önümüzdeki yıllarda bence yeni bir kavram ortaya çıkacak:

“Yapay zekâ okuryazarlığı”

Nasıl:

  • medya okuryazarlığı,
  • dijital okuryazarlık,
  • bilgi okuryazarlığı

önem kazandıysa, AI çağında da insanlar şunları öğrenmek zorunda kalacak:

  • AI her zaman doğru değildir.
  • Güvenle konuşması doğru olduğu anlamına gelmez.
  • Kaynak kontrolü gerekir.
  • Farklı görüşler karşılaştırılmalıdır.
  • Soru sormak gerekir.
  • “Nereden biliyorsun?” refleksi korunmalıdır.

Aslında belki de geleceğin en önemli eğitimi şu olacak:

“Cevap üretmeyi değil, doğru soru sormayı öğretmek.”


Sizin söylediğiniz gibi bu konuda:

  • uzun dönemli araştırmalar,
  • pedagojik çalışmalar,
  • psikolojik ölçümler,
  • kullanım alışkanlığı analizleri,
  • kuşak araştırmaları

çok önemli olacak.

Örneğin ileride şu tür sorular araştırılabilir:

  • AI kullanan çocukların dikkat süresi nasıl değişiyor?
  • Problem çözme becerileri azalıyor mu?
  • Ezber kapasitesi etkileniyor mu?
  • Merak duygusu güçleniyor mu yoksa zayıflıyor mu?
  • Kaynak doğrulama alışkanlığı oluşuyor mu?
  • AI’ya aşırı güven gelişiyor mu?
  • Yalnızlık hissini azaltıyor mu artırıyor mu?
  • Öğretmene bakışı değişiyor mu?

Bunlar gerçekten büyük uygarlık soruları.


Burada ilginç bir paradoks da var:

AI bir yandan çocukları düşünsel olarak tembelleştirebilir;
ama doğru kullanılırsa olağanüstü bir öğrenme hızlandırıcısı da olabilir.

Örneğin meraklı bir çocuk:

  • tarih,
  • astronomi,
  • biyoloji,
  • sanat,
  • matematik

konularında geçmiş kuşakların erişemediği kadar hızlı gelişebilir.

Yani aynı araç:

  • bir çocukta zihinsel atalete,
  • başka bir çocukta ise olağanüstü entelektüel gelişime

neden olabilir.

Belki de belirleyici unsur şu olacak:

Çocuğun çevresinde sorgulamayı teşvik eden bir kültür var mı?

Eğer aile ve eğitim sistemi:

  • “hazır cevabı ezberle” yerine,
  • “neden böyle?” diye soruyorsa,

risk azalabilir.

Ama yalnızca hızlı tüketim kültürü oluşursa,
o zaman sizin kaygılarınız çok büyüyebilir.

Bu nedenle mesele yalnızca teknoloji değil;
aynı zamanda eğitim felsefesi, kültür ve zihinsel disiplin meselesidir.

 

Soru 4: yapay zekaların cevap kalitesinin çok artması önem kazanır. ama bu ne kadar mümkün olacak... belki zamanla bu alanda rekabet gelişebilir. "en kaliteli cevabı biz veriyoruz. sertifikası şudur" gibi...


Evet, çok önemli bir noktaya temas ediyorsunuz.
Bence yapay zekâ çağının en kritik rekabet alanlarından biri zamanla şu olacak:

“Kim daha akıcı konuşuyor?” değil,
“Kim daha güvenilir, denetlenebilir ve kaliteli cevap üretiyor?”

Şu anda AI dünyası biraz internetin ilk yıllarına benziyor:

  • hız,
  • dikkat çekicilik,
  • büyüklük,
  • kullanıcı sayısı

öne çıkıyor.

 

Ama zamanla insanlar şunu daha fazla sorgulayacak:

  • Bu cevap ne kadar doğru?
  • Kaynağı nedir?
  • Yanılma oranı ne?
  • Taraflı mı?
  • Tutarlı mı?
  • Uzman denetiminden geçmiş mi?
  • Farklı görüşleri gösterebiliyor mu?
  •  

Ve sizin dediğiniz gibi bir gün gerçekten şu tür kavramlar doğabilir:

  • “AI güvenilirlik sertifikası”
  • “Bilimsel doğruluk endeksi”
  • “Eğitim için uygun AI standardı”
  • “Çocuk güvenliği sertifikası”
  • “Akademik kalite puanı”
  • “Halüsinasyon oranı”
  • “Kaynak şeffaflığı skoru”

Bu çok muhtemel görünüyor.


Aslında buna benzer süreçler geçmişte de yaşandı.

Örneğin:

  • Gıda sektöründe kalite standartları çıktı.
  • Elektronikte güvenlik sertifikaları oluştu.
  • Üniversitelerde akreditasyon sistemleri doğdu.
  • Basında “güvenilir yayıncılık” kavramı gelişti.

AI için de benzer bir aşama gelebilir.

 

Çünkü ileride AI:

  • eğitimde,
  • hukukta,
  • sağlıkta,
  • bilimde,
  • devlet işlerinde

çok daha merkezi hale geldikçe “cevap kalitesi” hayati meseleye dönüşecek.

 

Örneğin bir gün insanlar şunu sorabilir:

“Bu modeli çocuk eğitiminde kullanmak güvenli mi?”

veya:

“Bu AI’nın tarih anlatımı ideolojik olarak ne kadar dengeli?”


Burada çok önemli bir sorun da ortaya çıkıyor:

“Doğru cevap” her zaman kolay ölçülemez

Matematikte doğruluk ölçmek kolaydır.

Ama:

  • tarih,
  • siyaset,
  • kültür,
  • felsefe,
  • etik

alanlarında “kalite” çok daha karmaşık hale gelir.

 

Örneğin:
Bir AI:

  • teknik olarak doğru,
    ama
  • bağlamdan kopuk,
  • kültürel olarak yüzeysel,
  • farklı görüşleri dışlayan

cevaplar verebilir.

 

Dolayısıyla gelecekte yalnızca “doğruluk” değil:

  • derinlik,
  • kaynak çeşitliliği,
  • muhakeme kalitesi,
  • tarafsızlık,
  • açıklık,
  • belirsizliği kabul edebilme

gibi ölçütler önem kazanabilir.


Bir başka önemli nokta:

Rekabet kaliteyi artırabilir

Şu an farklı AI sistemlerinin varlığı aslında önemli bir denge unsuru.

Sizin kullandığınız gibi:

  • OpenAI
  • Google
  • Anthropic
  • DeepSeek
  • Qwen
  • Microsoft Copilot

gibi farklı sistemlerin bulunması:

  • tekelleşmeyi azaltabilir,
  • cevapların karşılaştırılmasını sağlayabilir,
  • hataları görünür hale getirebilir.

Belki ileride insanlar önemli konularda:

“Tek AI’ya değil, birkaç farklı modele sorup ortak noktaları karşılaştırma”

alışkanlığı geliştirecek.

Bu, dijital çağın yeni “kaynak tenkidi” olabilir.


Fakat başka bir risk de var:

İnsanlar kalite yerine konfora yönelebilir

Tarih boyunca çoğu insan:

  • en doğruyu değil,
  • en hızlıyı,
  • en kolay anlaşılırı,
  • en hoşuna gideni

tercih etti.

 

Dolayısıyla gelecekte:

  • “en güvenilir AI”
    ile
  • “en bağımlılık yapan AI”

aynı şey olmayabilir.

Bu çok kritik bir ayrım.

Çünkü dikkat ekonomisinde bazen:

  • kesin konuşan,
  • duygusal,
  • kullanıcıyı onaylayan,
  • sorgulatmayan

sistemler daha popüler olabilir.

Bu yüzden yalnız teknik kalite değil, etik tasarım da önem kazanacak.


Bence uzun vadede üç büyük alan oluşabilir:

  1. Eğlence ve hızlı tüketim AI’ları
  2. Günlük yardımcı AI’lar
  3. Yüksek güvenilirlikli “entelektüel/kurumsal AI” sistemleri

 

Tıpkı bugün:

  • sosyal medya yazılarıyla
  • akademik makalelerin

aynı şey olmaması gibi.

 

Belki gelecekte gerçekten şöyle ibareler göreceğiz:

“Bu yapay zekâ sistemi bağımsız akademik doğrulama kuruluşlarınca test edilmiştir.”

veya:

“Bu modelin tarihsel doğruluk oranı %X düzeyindedir.”

Bu ihtimal oldukça güçlü görünüyor.

Formun Üstü

Formun Altı

 


Hiç yorum yok:

Yorum Gönder