Hava Durumu

Çıkar dünyası işbaşında!

Yazının Giriş Tarihi: 19.08.2025 00:05
Yazının Güncellenme Tarihi: 19.08.2025 00:05

Günlerdir ‘yapay zekâ’ başlığı altındaki içerikleri takip ediyorum.

Kimisi sorulması gereken sorulara, kimisi gelecekte işsiz kalınacağına değiniyor.

İşsizlik korkusu yaşayan da bu durumu analiz etmesi için yine ChatGPT’ye başvuruyor.

Cümlelerin akışından metinlerin insan tarafından hazırlanmadığı net bir şekilde belli oluyor.

Sosyal medya bunun gibi gönderilerle dolup taşarken; sıradanlaşmanın önüne geçmek için hâlâ kendi emeğiyle açıklama metinleri oluşturanlar var.

Onlara saygı duyuyor ve pes etmedikleri için kutluyorum!
Amaç entegre çalışarak en iyi sonuca varmakken, tembelliği düstur edinenler nedeniyle yok olup gideceğiz zaten…

Yok oluş demişken yapay zekânın babası olarak bilinen Nobel Fizik ödüllü Geoffrey Hinton ilginç bir açıklama yaptı.

Gelecekte yapay sistemlerin, tıpkı bir yetişkinin üç yaşındaki bir çocuğu şekerle kandırması gibi insanları kolayca kandıracağı ve kontrol altına alacağını belirten Hinton; “Bunun önüne geçilebilmesi için yapay zekâ modellerine ‘annelik içgüdüleri’ yerleştirilmeli” dedi.

Böylece bize şefkat duygusu besleyecek olan iki gözümün çiçeği, canımızı bağışlayacak!
Demek ki gidişat bu kadar vahim.

5 ile 20 yıl arasında süper zekâ ile karşı karşıya kalacağımız tahmin edilirken, hiçbir şey için kendisini yormayan, geliştirmeyen ve yalnızca kaynakları tüketmek üzere istikamet çizen insanlık tehdit altında.

Açıkçası biz başımıza gelebilecek her şeyi çoktan hak ettik!
***

‘MIT News’ta yayımlanan bir araştırmayı da paylaşmak istiyorum.

Çağrı cümlesi şahane:

“İyimserler ve Ludditler arasındaki ayrımı unutun! Çoğu insan yapay zekâyı, algılanan yeteneklerine ve kişiselleştirme ihtiyaçlarına göre değerlendirir.”

Yani diyor ki; her şey çıkarlara göre şekillenir!

Örneğin; insanlar dolandırıcılığı tespit etme veya büyük veri kümelerini ayıklama gibi konularda yapay zekâyı tercih etme eğilimindeler. Bu alanlarda algoritmaların yetenekleri hız ve ölçek açısından insanlardan üstün ve durumu kişiselleştirmeye gerek yok.

Ancak terapi, iş görüşmesi, tıbbi teşhis konması gibi, insanın kendi özel koşullarını daha iyi tanıyabileceğini düşündükleri durumlarda yapay zekâya karşı direnç başlıyor.

Bu durumu yakın çevremizden de gözlemlemek mümkün.

Derdini, kederini, karıştığı kavgaları günün sonunda ChatGPT’ye anlatanlar; onunla dertleşmekten memnun olanlar var.

Bu psikologların tahtını sarsan bir şey.

Üstelik bunu ücretsiz versiyonuyla da yapabildiğimiz için; sıfır maliyet, maksimum marjinal fayda!

-Diğer mesleklere de uyarlayabiliriz.-

Araştırmaya göre; işsizlik oranı yüksek olan ülkelerde yapay zekâya mesafe artıyor. Çünkü insanlar işlerini kaybetme korkusu yaşıyor.

O zaman bazılarının direnç göstermesi doğal.

Sezgisel olarak yerinizi alacağına inanıyorsanız, onu benimseme olasılığınız oldukça düşük.

Ama her ne olursa olsun, bireysel dirençlerin bir anlamı yok.

Çünkü o gelişmeye devam ediyor.

Düşünsenize bir de size anne şefkatiyle yaklaştığını…

***

Araştırmanın diğer bulgularına da değinmekte fayda var.

“İnsanlar algoritmalar yerine robotlara daha çok güveniyor” tespiti ilginç geldi bana.

Malum ‘robotlar ilk fırsatta bizi kesecek’ söylemi çok popüler.

Bu inancın yaygınlaşmasında dizi ve filmlerin de rolü çok büyük.

Genellikle eve hizmetçi olarak getirilen robot ya ailenin tamamını esir alıyor ya da evin annesi olmak istediği için asıl anneyi hedef alarak, onu öldürmeye çalışıyor.

Gelecekten mesajlar içerdiğine inananlar olması gayet doğal.

Ama araştırma sonucu bu karşıtlığı ortaya koymamış aksine fiziki bedeni olan yapay zekânın daha çok güven verdiğine değinmiş.

Ayrıca insan bir hata yaptığında ona karşı daha affedici olunurken, fiziki bedeni olmayan yazılımların hataları hoş karşılanmıyor; güven kırıcı bulunuyor.

***

Düşününce hepsi de kulağa mantıklı geliyor.

Komik olan her gün, her işi ChatGPT ya da benzer yazılımlara danışıp sonra da bunun sakıncalarından bahsediyor olmak…

Yükleniyor..
logo
En son gelişmelerden anında haberdar olmak için 'İZİN VER' butonuna tıklayınız.