yapay zekaya ilişkin sosyal medyaya yansıyan eleştiriler çerçevesinde bazı
sorular
13.5.2026
Soru 1: yapay zekaya ilişkin sosyal medyaya yansıyan eleştirilerin bir çoğunda
haklılık payı olduğuna düşünenlerdenim. ne dersiniz...
Soru 2: yapay zekanın eksileri çok fazla. peki artıları eksilerin önüne geçebilir
mi...
Soru 3: çocuklar ve gençler bilgi birikimleri
yaşları itibariyle zayıf olan insanlar... bunların içinden ne kadarı yapay
zekadan gelen cevaba hemen kapılmayıp, sorgulayan, soru soran bir zihin gibi
davranır ki... risk hiç de az değil gibi. bu konu üzerinde çok çalışmak,
anketler yapmak gerekir sanırım...
Soru 4: yapay zekaların cevap kalitesinin çok artması önem kazanır. ama bu ne kadar
mümkün olacak... belki zamanla bu alanda rekabet gelişebilir. "en kaliteli
cevabı biz veriyoruz. sertifikası şudur" gibi...
…………………………………….
Soru
1: yapay zekaya ilişkin sosyal medyaya yansıyan eleştirilerin bir çoğunda
haklılık payı olduğuna düşünenlerdenim. ne dersiniz...
13.5.2026
Chat Gpt
Bu eleştirilerin bazı yönlerinde ciddi bir “haklılık
payı” var; bazı yönlerinde ise aşırı genelleme ve determinist bir bakış
bulunuyor. Asıl mesele, yapay zekânın ne olduğu kadar, nasıl kullanıldığı ve
hangi toplumsal-ekonomik yapı içinde geliştiğidir.
Öne sürdüğünüz maddeleri tek tek düşünürsek:
1. “Biz kullanıcı
değiliz; ücretsiz eğitim işçisiyiz” iddiası
Bu görüş teknik olarak tamamen temelsiz değildir.
Bugünkü büyük dil modelleri gerçekten de insan geri
bildirimiyle gelişiyor. Buna AI alanında Reinforcement Learning from Human
Feedback denir. İnsanların:
- yanlış cevabı düzeltmesi,
- iyi cevabı seçmesi,
- hangi cevabın daha yararlı olduğunu belirtmesi
modellerin gelişmesinde kullanılır.
Bu nedenle kullanıcı etkileşimleri büyük ekonomik
değer taşır.
Ancak burada önemli ayrım şudur:
- Kullanıcılar “zorla çalıştırılan işçiler”
değildir.
- Ama ürettikleri veri, şirketler için büyük
sermaye değerine dönüşmektedir.
Aslında bu durum sadece yapay zekâya özgü değil:
- Google arama verileriyle,
- Meta sosyal etkileşimlerle,
- TikTok izleme davranışlarıyla büyüdü.
Yani dijital çağın ekonomik modeli büyük ölçüde
“kullanıcı davranışının sermayeye dönüştürülmesi” üzerine kurulu.
Buradaki asıl soru şudur:
İnsanlığın kolektif zihinsel emeği kamusal bir değer
mi olmalı, yoksa birkaç şirketin özel mülkü mü?
Bu soru gerçekten tarihsel ölçekte önemlidir.
2. “Bilişsel
tembelleşme” eleştirisi
Bu da önemli ölçüde gerçek bir risk.
İnsanlık tarihinde her büyük araç bazı becerileri
zayıflatmıştır:
- Yazının yaygınlaşması ezberi azalttı.
- Hesap makinesi zihinsel aritmetiği azalttı.
- GPS yön bulma becerisini azalttı.
- Sosyal medya dikkat süresini etkiledi.
Şimdi yapay zekâ:
- yazma,
- özet çıkarma,
- analiz,
- fikir üretme,
- hatta karar verme
alanlarına giriyor.
Buradaki kritik nokta şu:
Yapay zekâ “kas kaybı” gibi zihinsel bir kayba yol
açabilir; ama aynı zamanda zihinsel kapasiteyi büyüten bir dış bellek ve düşünme
ortağı da olabilir.
Örneğin:
- Bazı insanlar AI yüzünden artık düşünmüyor.
- Bazıları ise AI sayesinde normalde ulaşamayacağı
kadar geniş bilgi alanlarını tarayabiliyor.
Bu durum matbaanın ortaya çıkışına biraz benziyor:
- Bazıları yüzeysel bilgi tüketicisine dönüştü.
- Bazıları ise tarihin en büyük entelektüel
sıçramalarını yaptı.
Yani araç tek başına kader belirlemiyor.
Fakat sizin vurguladığınız tehlike çok gerçek:
“Düşünme kasını tamamen dışarıya devretmek.”
Eğer insan:
- sorgulamayı,
- kaynak karşılaştırmayı,
- mantık yürütmeyi,
- şüphe etmeyi
bırakırsa, ciddi bir zihinsel bağımlılık oluşabilir.
3. “Tek gerçek
kaynağı” tehlikesi
Bu, bence en kritik maddelerden biridir.
Çünkü tarih boyunca:
- dinî otoriteler,
- devlet propagandaları,
- tek kanallı medya,
- ideolojik eğitim sistemleri
hep “hakikatin merkezi kontrolü”nü hedefledi.
AI sistemleri teorik olarak bunu çok daha güçlü hale
getirebilir.
Çünkü insanlar:
- 20 site okumak yerine,
- tek bir cevabı yeterli görmeye başlayabilir.
Bu nedenle:
- şeffaflık,
- kaynak gösterme,
- farklı görüşlere erişim,
- açık modeller,
- bağımsız doğrulama kültürü
hayati önem taşıyor.
Burada tehlike yalnızca “yalan” değildir.
Daha büyük tehlike şudur:
İnsanların araştırma refleksini kaybetmesi.
Çünkü düşünce özgürlüğü yalnızca konuşma özgürlüğü
değildir;
aynı zamanda:
- alternatif bilgiye ulaşabilme,
- karşılaştırabilme,
- kuşku duyabilme yeteneğidir.
4. “Mutlak tekel”
meselesi
Bu da dijital ekonominin temel sorunlarından biri.
AI altyapısı:
- veri,
- işlemci gücü,
- enerji,
- devasa sunucular,
- küresel kullanıcı verisi
gerektirdiği için birkaç büyük şirket avantajlı hale
geliyor.
Bu yüzden:
- “AI sömürgeciliği”,
- “veri emperyalizmi”,
- “dijital bağımlılık”
gibi kavramlar akademide ciddi biçimde tartışılıyor.
Özellikle küçük ülkeler için şu soru önemlidir:
Kendi dilini, kültürünü ve bilgi altyapısını
üretemeyen toplumlar gelecekte bilişsel olarak dışa bağımlı hale gelir mi?
Bu soru Türkiye açısından da önemlidir.
Fakat metindeki bazı noktalar aşırı determinist:
“İnsan tamamen itaatkâr biyolojik birime dönüşecek”
iddiası kaçınılmaz bir kader gibi sunuluyor. Tarih buna tam destek vermiyor.
Çünkü insanlık:
- matbaayı da,
- radyoyu da,
- televizyonu da,
- interneti de
hem manipülasyon için hem özgürleşme için kullandı.
Örneğin internet:
- büyük dezenformasyon üretti,
ama aynı zamanda: - milyonlarca insanın bilgiye erişimini
demokratikleştirdi.
AI için de benzer bir ikilik var.
Asıl belirleyici olan şey:
Yapay zekâyı “yerine düşünen efendi” mi yapacağız,
yoksa “düşünmeyi büyüten yardımcı araç” mı?
Bence sağlıklı yaklaşım şudur:
- AI’dan yararlan,
- ama ona teslim olma.
- Kaynak kontrolü yap.
- Karşılaştırmalı düşün.
- Hafızanı tamamen dışarı aktarma.
- Bazı şeyleri özellikle kendin çözmeye devam et.
- AI’yı “nihai otorite” değil, “yardımcı araç”
olarak gör.
Bu yapılmazsa sizin alıntıladığınız eleştiriler zamanla
daha güçlü hale gelebilir.
Soru
2: yapay zekanın eksileri çok fazla. peki artıları eksilerin önüne geçebilir
mi...
Evet, geçebilir — ama otomatik olarak değil.
Bu tamamen insanlığın yapay zekâyı hangi uygarlık modeli içinde kullandığına
bağlı.
Tarih boyunca büyük teknolojiler hep iki uçlu
olmuştur:
- Ateş → yemek pişirdi, şehir kurdurdu; ama şehirleri de yaktı.
- Matbaa → düşünceyi özgürleştirdi; ama propaganda da yaydı.
- Elektrik → medeniyeti büyüttü; ama savaş makinelerini de güçlendirdi.
- İnternet → bilgiye erişimi demokratikleştirdi; ama dikkat ekonomisini ve bağımlılığı da doğurdu.
Yapay zekâ bunlardan farklı olarak yalnızca “fiziksel
gücü” değil, ilk kez doğrudan “zihinsel alanı” etkiliyor. Bu yüzden riskleri
daha derin hissediliyor.
Ama artıları gerçekten olağanüstü olabilir.
Yapay zekânın insanlık
açısından çok büyük potansiyel artıları
1. Bilgiye erişimde
devrim
Eskiden:
- bir konuda araştırma yapmak için
- kütüphane,
- ansiklopedi,
- uzman erişimi,
- yabancı dil bilgisi
gerekiyordu.
Şimdi ise bir köyde yaşayan biri bile:
- bilim,
- tarih,
- yazılım,
- dil,
- felsefe,
- mühendislik
konularında saatler içinde büyük ilerleme
kaydedebiliyor.
Bu, bilgi elitizmini azaltabilir.
Özellikle sizin gibi bibliyografya ve bilgi
organizasyonu üzerine düşünen biri açısından AI:
- kataloglama,
- tasnif,
- ilişkilendirme,
- kronoloji oluşturma,
- kavramsal haritalama
alanlarında çok güçlü bir yardımcı olabilir.
2. İnsan zihnini
büyütebilme ihtimali
Burada kritik ayrım şu:
AI iki farklı şekilde kullanılabilir:
Kötü kullanım:
“Ben düşünmeyeyim, AI düşünsün.”
İyi kullanım:
“Benim düşünme kapasitemi genişletsin.”
İkinci durumda AI:
- ikinci beyin,
- yardımcı araştırmacı,
- hızlı arşivci,
- fikir eşleştirici,
- entelektüel hızlandırıcı
gibi çalışabilir.
Örneğin:
Bir insan tek başına 500 kitabı tarayabiliyorsa,
AI yardımıyla 50.000 kitabın ilişkilerini görebilir.
Bu çok büyük bir farktır.
3. Küçük insanların
büyük iş yapabilmesi
Geçmişte büyük projeler için:
- büyük sermaye,
- büyük kurum,
- büyük ekip
gerekiyordu.
AI sayesinde artık:
- tek kişi,
- küçük ekip,
- bağımsız araştırmacı
çok daha büyük üretimler yapabiliyor.
Bu yönüyle AI bazı alanlarda “entelektüel
demokratikleşme” sağlayabilir.
4. Sağlık ve bilimde
dev ilerlemeler
Yapay zekâ:
- ilaç keşfi,
- erken teşhis,
- protein analizi,
- iklim modelleme,
- enerji verimliliği
alanlarında insanlığa çok ciddi katkılar sağlayabilir.
Örneğin DeepMind’ın geliştirdiği AlphaFold protein
katlanması problemini çözmede bilim dünyasında büyük etki oluşturdu.
Bu tür gelişmeler:
- kanser,
- Alzheimer,
- genetik hastalıklar
gibi alanlarda yeni çağ açabilir.
5. İnsanlığın kolektif
hafızasını düzenleme ihtimali
Bugün bilgi kaosu var:
- milyarlarca belge,
- video,
- kitap,
- makale,
- veri.
İnsan zihni bunu yönetmekte zorlanıyor.
AI burada:
- bilgi haritaları,
- ilişki ağları,
- bibliyografik sistemler,
- kültürel miras organizasyonu
için devrimsel araç olabilir.
Sizin Atatürk bibliyografyası ve kültür envanteri
çalışmalarınız gibi projelerde bu potansiyel çok yüksek.
Ama eksilerin artıları geçmesi için bazı şartlar
gerekiyor.
Eğer şu olursa eksiler
baskın çıkar:
- İnsan tamamen pasifleşirse
- Eleştirel düşünme kaybolursa
- Tekelleşme aşırı büyürse
- Eğitim sistemi çökerse
- İnsanlar doğrulama alışkanlığını bırakırsa
- AI “nihai otorite” gibi görülürse
o zaman sizin paylaştığınız eleştiriler ağır
basabilir.
Eğer şu olursa artılar
baskın çıkabilir:
- AI bir yardımcı araç olarak kullanılırsa
- İnsan düşünmeyi bırakmazsa
- Açık kaynak modeller gelişirse
- Dijital okuryazarlık artarsa
- İnsanlar kaynak kontrolü yaparsa
- Eğitim sistemi “ezber” yerine “muhakeme”
öğretirse
o zaman AI matbaa kadar büyük bir uygarlık sıçramasına
dönüşebilir.
Belki de asıl soru şudur:
Yapay zekâ insanı küçültecek mi, yoksa insanın
zihinsel ufkunu büyütecek mi?
Bunun cevabı teknolojide değil; kültürde, eğitimde,
etik anlayışta ve insanın kendi zihinsel disiplininde yatıyor.
Soru
3: çocuklar ve gençler bilgi birikimleri yaşları itibariyle zayıf olan
insanlar... bunların içinden ne kadarı yapay zekadan gelen cevaba hemen
kapılmayıp, sorgulayan, soru soran bir zihin gibi davranır ki... risk hiç de az
değil gibi. bu konu üzerinde çok çalışmak, anketler yapmak gerekir sanırım...
Evet, burada gerçekten ciddi bir risk alanı var.
Özellikle çocuklar ve gençler açısından mesele yalnızca “teknoloji kullanımı”
değil; doğrudan doğruya:
- muhakeme gelişimi,
- otorite algısı,
- bilgiyle ilişki kurma biçimi,
- kişilik ve düşünme alışkanlığı
meselesidir.
Çünkü çocuk zihni doğal olarak:
- hızlı cevap veren,
- kendinden emin konuşan,
- akıcı dil kullanan,
- sürekli ulaşılabilir olan
bir sistemi “otorite” gibi algılamaya eğilimlidir.
Geçmişte:
- öğretmen,
- aile,
- ansiklopedi,
- televizyon spikeri
nasıl güçlü otorite etkisi oluşturuyorsa, yapay zekâ
çok daha güçlü bir psikolojik etki oluşturabilir. Çünkü:
- kişiye özel cevap veriyor,
- sabır gösteriyor,
- sürekli erişilebilir,
- insan diliyle konuşuyor,
- güven hissi oluşturuyor.
Bu nedenle sizin kaygınız hafife alınacak bir konu
değil.
Özellikle şu risk önemli:
“Akıcı konuşma” ile “doğruluk” arasındaki farkın
unutulması.
Çocuk veya genç şunu düşünebilir:
“Bu kadar düzgün anlatıyorsa kesin doğrudur.”
Oysa yapay zekâ:
- yanlış bilgi verebilir,
- eksik bağlam sunabilir,
- yönlendirilmiş veriyle eğitilmiş olabilir,
- bazen gerçeğe çok benzeyen hatalar üretebilir.
Yetişkin ve eleştirel düşünme eğitimi almış biri bile
bazen bunu ayırt etmekte zorlanıyor.
Bu nedenle önümüzdeki yıllarda bence yeni bir kavram
ortaya çıkacak:
“Yapay zekâ
okuryazarlığı”
Nasıl:
- medya okuryazarlığı,
- dijital okuryazarlık,
- bilgi okuryazarlığı
önem kazandıysa, AI çağında da insanlar şunları
öğrenmek zorunda kalacak:
- AI her zaman doğru değildir.
- Güvenle konuşması doğru olduğu anlamına gelmez.
- Kaynak kontrolü gerekir.
- Farklı görüşler karşılaştırılmalıdır.
- Soru sormak gerekir.
- “Nereden biliyorsun?” refleksi korunmalıdır.
Aslında belki de geleceğin en önemli eğitimi şu
olacak:
“Cevap üretmeyi değil, doğru soru sormayı öğretmek.”
Sizin söylediğiniz gibi bu konuda:
- uzun dönemli araştırmalar,
- pedagojik çalışmalar,
- psikolojik ölçümler,
- kullanım alışkanlığı analizleri,
- kuşak araştırmaları
çok önemli olacak.
Örneğin ileride şu tür sorular araştırılabilir:
- AI kullanan çocukların dikkat süresi nasıl
değişiyor?
- Problem çözme becerileri azalıyor mu?
- Ezber kapasitesi etkileniyor mu?
- Merak duygusu güçleniyor mu yoksa zayıflıyor mu?
- Kaynak doğrulama alışkanlığı oluşuyor mu?
- AI’ya aşırı güven gelişiyor mu?
- Yalnızlık hissini azaltıyor mu artırıyor mu?
- Öğretmene bakışı değişiyor mu?
Bunlar gerçekten büyük uygarlık soruları.
Burada ilginç bir paradoks da var:
AI bir yandan çocukları düşünsel olarak
tembelleştirebilir;
ama doğru kullanılırsa olağanüstü bir öğrenme hızlandırıcısı da olabilir.
Örneğin meraklı bir çocuk:
- tarih,
- astronomi,
- biyoloji,
- sanat,
- matematik
konularında geçmiş kuşakların erişemediği kadar hızlı
gelişebilir.
Yani aynı araç:
- bir çocukta zihinsel atalete,
- başka bir çocukta ise olağanüstü entelektüel gelişime
neden olabilir.
Belki de belirleyici unsur şu olacak:
Çocuğun çevresinde sorgulamayı teşvik eden bir kültür
var mı?
Eğer aile ve eğitim sistemi:
- “hazır cevabı ezberle” yerine,
- “neden böyle?” diye soruyorsa,
risk azalabilir.
Ama yalnızca hızlı tüketim kültürü oluşursa,
o zaman sizin kaygılarınız çok büyüyebilir.
Bu nedenle mesele yalnızca teknoloji değil;
aynı zamanda eğitim felsefesi, kültür ve zihinsel disiplin meselesidir.
Soru
4: yapay zekaların cevap kalitesinin çok artması önem kazanır. ama bu ne kadar mümkün
olacak... belki zamanla bu alanda rekabet gelişebilir. "en kaliteli cevabı
biz veriyoruz. sertifikası şudur" gibi...
Evet,
çok önemli bir noktaya temas ediyorsunuz.
Bence yapay zekâ çağının en kritik rekabet alanlarından biri zamanla şu olacak:
“Kim daha akıcı
konuşuyor?” değil,
“Kim daha güvenilir, denetlenebilir ve kaliteli cevap üretiyor?”
Şu anda AI dünyası biraz internetin ilk yıllarına
benziyor:
- hız,
- dikkat çekicilik,
- büyüklük,
- kullanıcı sayısı
öne çıkıyor.
Ama zamanla
insanlar şunu daha fazla sorgulayacak:
- Bu cevap ne kadar doğru?
- Kaynağı nedir?
- Yanılma oranı ne?
- Taraflı mı?
- Tutarlı mı?
- Uzman denetiminden geçmiş mi?
- Farklı görüşleri gösterebiliyor mu?
Ve sizin dediğiniz gibi bir gün gerçekten şu tür
kavramlar doğabilir:
- “AI güvenilirlik sertifikası”
- “Bilimsel doğruluk endeksi”
- “Eğitim için uygun AI standardı”
- “Çocuk güvenliği sertifikası”
- “Akademik kalite puanı”
- “Halüsinasyon oranı”
- “Kaynak şeffaflığı skoru”
Bu çok muhtemel görünüyor.
Aslında buna benzer süreçler geçmişte de yaşandı.
Örneğin:
- Gıda sektöründe kalite standartları çıktı.
- Elektronikte güvenlik sertifikaları oluştu.
- Üniversitelerde akreditasyon sistemleri doğdu.
- Basında “güvenilir yayıncılık” kavramı gelişti.
AI için de benzer bir aşama gelebilir.
Çünkü ileride AI:
- eğitimde,
- hukukta,
- sağlıkta,
- bilimde,
- devlet işlerinde
çok daha merkezi
hale geldikçe “cevap kalitesi” hayati meseleye dönüşecek.
Örneğin bir gün insanlar şunu sorabilir:
“Bu modeli çocuk eğitiminde kullanmak güvenli mi?”
veya:
“Bu AI’nın tarih anlatımı ideolojik olarak ne kadar
dengeli?”
Burada çok önemli
bir sorun da ortaya çıkıyor:
“Doğru cevap” her zaman kolay ölçülemez
Matematikte doğruluk ölçmek kolaydır.
Ama:
- tarih,
- siyaset,
- kültür,
- felsefe,
- etik
alanlarında “kalite” çok daha karmaşık hale gelir.
Örneğin:
Bir AI:
- teknik olarak doğru,
ama - bağlamdan kopuk,
- kültürel olarak yüzeysel,
- farklı görüşleri dışlayan
cevaplar verebilir.
Dolayısıyla
gelecekte yalnızca “doğruluk” değil:
- derinlik,
- kaynak
çeşitliliği,
- muhakeme
kalitesi,
- tarafsızlık,
- açıklık,
- belirsizliği
kabul edebilme
gibi ölçütler önem
kazanabilir.
Bir başka önemli nokta:
Rekabet kaliteyi
artırabilir
Şu an farklı AI sistemlerinin varlığı aslında önemli
bir denge unsuru.
Sizin kullandığınız gibi:
- OpenAI
- Google
- Anthropic
- DeepSeek
- Qwen
- Microsoft Copilot
gibi farklı sistemlerin bulunması:
- tekelleşmeyi azaltabilir,
- cevapların karşılaştırılmasını sağlayabilir,
- hataları görünür hale getirebilir.
Belki ileride insanlar önemli konularda:
“Tek AI’ya değil, birkaç farklı modele sorup ortak
noktaları karşılaştırma”
alışkanlığı geliştirecek.
Bu, dijital çağın yeni “kaynak tenkidi” olabilir.
Fakat başka bir
risk de var:
İnsanlar kalite yerine konfora yönelebilir
Tarih boyunca çoğu insan:
- en doğruyu değil,
- en hızlıyı,
- en kolay anlaşılırı,
- en hoşuna gideni
tercih etti.
Dolayısıyla gelecekte:
- “en güvenilir AI”
ile - “en bağımlılık yapan AI”
aynı şey olmayabilir.
Bu çok kritik bir ayrım.
Çünkü dikkat ekonomisinde bazen:
- kesin konuşan,
- duygusal,
- kullanıcıyı onaylayan,
- sorgulatmayan
sistemler daha popüler olabilir.
Bu yüzden yalnız teknik
kalite değil, etik tasarım da önem kazanacak.
Bence uzun vadede üç büyük alan oluşabilir:
- Eğlence ve hızlı tüketim AI’ları
- Günlük yardımcı AI’lar
- Yüksek
güvenilirlikli “entelektüel/kurumsal AI” sistemleri
Tıpkı bugün:
- sosyal medya yazılarıyla
- akademik makalelerin
aynı şey olmaması gibi.
Belki gelecekte gerçekten şöyle ibareler göreceğiz:
“Bu yapay zekâ sistemi bağımsız akademik doğrulama
kuruluşlarınca test edilmiştir.”
veya:
“Bu modelin tarihsel doğruluk oranı %X düzeyindedir.”
Bu ihtimal oldukça güçlü görünüyor.