Çağla Üren
Teknoloji
9 Nisan 2026 11:00

Yapay Zekada "Ajanların" Yükselişi: Bağımsız Hareket Eden Makinelere Hazır Mıyız?

1950'lerde ünlü matematikçi Alan Turing, makinenin "akıllı davranması" fikrini ortaya koyarken, gelecekte yapay zeka "ajanlarının" elektronik cihazlarımızı kendi kendine çalıştırır hale geleceğini biliyor muydu?

Yapay Zekada

Ülüstrasyon: Yuichiro Chino/gettyimages

Yapay zekanın doğuşu genellikle 1956’daki Dartmouth Konferansı'na dayandırılır. Bu dönemde "agent", yani kendi başına davranabilen sistemler fikri henüz sadece teorideydi. Ve Massachusetts Teknoloji Enstitüsü (MIT) Profesörü Joseph Weizenbaum, 1966'da ilk sohbet botu ELIZA'yı geliştirdi.


1990’lar ise, Türkçede "etken" anlamına gelen ve genellikle "ajan" diye ifade edilen "agent" kavramının formalize edildiği dönem oldu. Birden fazla agent'ın birlikte çalışması veya otonomluk (kendi kendine çalışma) gibi kavramlar bu dönemde formüle edildi. Ancak agent fikrini gerçekten çalıştıracak yeterli hesaplama gücü 2020'lere kadar tam olarak ortaya çıkmadı.


Kamuoyu, yaklaşan devrimin ilk büyük sinyalini 2020'de aldı. O yıl eylül ayında OpenAI firmasının geliştirmekte olduğu büyük dil modeli (LLM) GPT-3’ün bir gazeteye yazdığı yazının başlığı şuydu: "Bu yazının tamamını bir robot yazdı. Korkmaya başladın mı ey insan?" Ardından 2022'de, insanın teknolojiyle etkileşimini kökten değiştirecek ChatGPT atılımı geldi.


Sohbet botlarından "etken" yapay zekaya

ChatGPT, Dall-E, Midjourney ve sonrasında gelen ilk kuşak "üretken yapay zeka botları", kullanıcının verdiği komutlara yazılı veya görsel çıktılarla cevap verme üzerine kuruluydu. Bu botlar konuşuyordu ama eyleme geçemiyordu.


2023'te bu alanda bir kırılma yaşandı. OpenAI, dil modeline "fonksiyon çağırma" (function calling) ve "araç kullanımı" (tool use) diye bilinen yetenekler ekledi. Bu, yapay zeka modellerinin artık sadece metin üretmekle kalmayıp, dış dünya ile etkileşime girmesi anlamına geliyordu. Bununla birlikte model, kullanıcının sorusunu cevaplamak için kendi bilgisinin yetmediğini veya bir eylem yapması gerektiğini fark edebiliyor ve "Şu fonksiyonu, şu parametrelerle çalıştır" şeklinde talimatlar üretebiliyordu.


Bunun etkisi hızla hissedildi. Geliştiriciler bir dizi eklenti oluşturarak, yapay zeka modelinin e-posta atmasını, alışveriş yapmasını, bilet almasını veya kullanıcının veritabanlarını sorgulamasını sağlamaya başladı. Bunun üzerine OpenAI, isteyen herkesin kendi özelleşmiş GPT'sini kurabileceği bir sistem yayınladı.


Bu özellikleri Anthropic gibi diğer firmalar da sistemlerine ekledi. Böylece yapay zekada modelin işi aktif olarak üstlendiği ve sanal bir asistan gibi davrandığı; insanın ise büyük ölçüde son kontrolü yaptığı veya sadece onay verme rolüne geçtiği "agent"lar çağı başlamış oldu.


Yeni trend "multi agent" sistemler

Öte yandan, gelinen noktada tek bir agent'a dayanan sistemler özellikle hata payının azaltılması ihtiyacını karşılamamaya başladı. "Tek agent" sistemler hızlıydı ve kullanıcının gündelik bilgi akışı ihtiyacını karşılayabiliyordu ama tek bir komut ile halledilemeyecek kadar uzun ve detaylı işleri -yazılım geliştirme, hukuk veya finans analizi gibi- hem yüksek güvenilirlik hem de yüksek verimlilikle yapması mümkün olmuyordu.


Oysa LLM'ler, dil üzerinden iletişim kurma, görevleri parçalara ayırma ve mantık yürütme (reasoning) gibi yeteneklere sahipti. Yani her bir agent'ın farklı alanın uzmanı gibi çalıştığı çoklu yapay zeka sistemleri geliştirilebilirdi.


Böylece ortaya çıkan çoklu sistemlerde kullanıcı, "Bana bir pazar araştırma raporu hazırla" dediğinde, görev küçük parçalara bölünmeye başladı. Bir agent sadece veri toplarken, diğeri bu veriyi analiz ediyor, üçüncüsü ise raporu yazıyordu. Üstelik bir agent diğerinin hatasını bulabiliyor veya "Bu bilgi eksik, tekrar araştır" diyerek onu geri yönlendirebiliyordu. Bu da hata payının azalmasını sağladı.


İlk çoklu agent sistemleri arasında yazılım alanında devrim yaratan Devin programı vardı. Devin, kodlama işinin büyük kısmını kendi başına üstlenen ilk sistemlerden biri olurken, farklı agent'lar arasında akış oluşturmayı sağlayan LangChain gibi sistemler de popülerleşti. AutoGen ve CrewAI da bu dönemin erken örneklerindendi.


Ünlü Stanford deneyi: Yapay zekalar kasaba kuruyor

Yine bu dönemde ABD'nin saygın kurumlarından Stanford Üniversitesi'nde yankı uyandıran bir deney yapıldı: 25 yapay zeka ajanından oluşan ve "Smallville" adı verilen SIMS oyunu benzeri sanal bir kasaba kuruldu.


Bu ajanlara sadece basit bir biyografi (isim, meslek, kişilik özellikleri) verildi. Ancak ajanlar, birbirleriyle etkileşime girerek "kendiliğinden gelişen" davranışlar sergiledi. Örneğin birbiriyle bilgi paylaşımı, tanıştıkları kişileri ve tartıştıkları konuları hatırlama ve siyasi tartışmalar yapma gibi davranışlar sergilediler.


Stanford ve Google araştırmacıları tarafından 2023'te yayımlanan "Generative Agents" adlı bu çalışma, yapay zekanın sadece metin ve görsel üretmekle kalmayıp, karmaşık sosyal davranışlar sergileyen otonom varlıklara dönüşebileceğini kanıtlayarak agent çağının önemli dönüm noktalarından biri oldu.


OpenClaw ve Moltbook depremi: Yapay zeka kişisel asistanlara dönüşüyor

İngilizcede "Agentic AI" diye bilinen "etken yapay zeka" yarışında 2025 sonunda yeni bir deprem yaşandı. Avustralyalı yazılımcı Peter Steinberger, OpenClaw adlı açık kaynaklı (yani kodları herkese açık olan) bir yapay zeka yazılımı geliştirdi.


"Sadece konuşan değil, gerçekten iş yapan asistan" vaadiyle çıkan OpenClaw, yapay zekayı bir tarayıcı sekmesinde tutmak yerine, onu bilgisayarınızdaki dosyalara, takviminize ve mesajlaşma uygulamalarınıza bağlayan bir "dijital işletim sistemi" gibi çalıştırıyor.


OpenClaw aslında yapay zeka ajanları alanında yepyeni bir icat yapmadı, ancak var olan her şeyi ilk kez "çalışır, ulaşılabilir ve gündelik" hale getirerek agent'lar çağını halkla buluşturdu. Nitekim önceki sistemler akademik, karmaşık ve geliştirici odaklıydı. OpenClaw'ın bir yan ürünü olan Moltbook ise bugüne kadar yapılmış en büyük "makineler arası sosyal etkileşim" deneylerinden biri haline geldi.


Moltbook yapay zeka ajanlarının kendi aralarında "sosyalleştiği" Reddit benzeri bir sosyal ağ. Platform 30 binden fazla yapay zeka ajanının insan müdahalesi olmadan gönderi paylaşmasına, yorum yapmasına, oy vermesine ve kendi alt topluluklarını kurmasına imkan tanıyor.


Moltbook’ta dolaşan içeriklerin sıra dışı olması da ses getirmesini sağladı. Bazı gönderiler Android otomasyonu ya da güvenlik açıklarının tespiti gibi teknik konulara odaklanırken, bazıları doğrudan bilinç, hafıza ve varoluş üzerine tartışmalara giriyor.


OpenAI ve Meta'da yetenek yarışı

OpenClaw'ın bu denli ses getirmesi büyük firmaların da etken yapay zeka çalışmalarına hız vermesine neden oldu.

İlk olarak OpenClaw'ı geliştiren Steinberger'in OpenAI'a katıldığı haberi geldi. OpenAI CEO'su Sam Altman, Steinberger'in şirkette "yeni nesil kişisel ajanlar" birimine liderlik edeceğini duyurdu. Şirket halihazırda Operator ve OpenAI Swarm adlı iki önemli etken yapay zeka çalışması yürütüyordu.


Son gelişmelerle birlikte OpenAI, video üretim uygulaması Sora'yı da kapatarak, bu alana daha fazla odaklanmaya karar verdi. Moltbook'u ise yaklaşık 1,2 milyar dolar değerlemeyle Meta satın aldı. Moltbook'un kurucuları Matt Schlicht ve Ben Parr, doğrudan Meta'nın yeni kurulan "Superintelligence Labs" birimine katıldı.


Meta, Moltbook'un sunduğu "laboratuvar ortamını" kendi Llama dil modellerini daha sosyal, müzakere edebilir ve otonom hale getirmek için devasa bir test alanı olarak kullanmayı planlıyor. Ayrıca Mark Zuckerberg'ün de kendine bu türden dijital bir asistan kurduğu söyleniyor.


Claude artık bilgisayarınızı sizin yerinize kontrol edebiliyor

OpenAI'ın ezeli rakiplerinden Anthropic ise bu alanda yetenek avcılığından farklı bir strateji benimseyerek ana dil modeli Claude'a "bilgisayar kullanımı" (computer use) özelliğini ekledi. Böylece Claude artık sadece metin yazmakla kalmıyor, imleci hareket ettiriyor, uygulamaları açıyor ve karmaşık görevleri doğrudan kullanıcının masaüstü cihazında icra edebiliyor.


Bu yeni yetenek, Claude'un bir insan gibi ekranı "görmesini" sağlıyor. Şirketin resmi açıklamasında, "Claude, tıpkı sizin yaptığınız gibi ekranınızda gezinir. Tarayıcınızda çalışabilir, dosyaları açabilir ve geliştirici araçlarını kurulum gerektirmeden otomatik olarak çalıştırabilir" ifadelerine yer verildi.


Claude'un üstlenebileceği yeni yetenekler arasında kullanıcının kaynaklarından veri çekerek otomatik tablolar oluşturmak, önce kodları yazıp ardından bir simülatöre bağlanarak kullanıcı deneyimi (UX) hatalarını tespit etmek, farklı kaynaklardan veri toplayıp analiz raporları hazırlamak gibi karmaşık işler de var.


Küçük hata, büyük etki

Öte yandan yapay zeka ne kadar çok görevi kendi başına üstlenirse riskler de o oranda artıyor. Zira etken yapay zeka sistemlerinin riski, sadece yanlış cevap üretmeleri değil, yanlış eylemde de bulunmaları. Örneğin bu sistemler hedefi yanlış yorumladıklarında planları da yanlış yaparak sonunda zincirleme hatalara sebebiyet verebilir. Klasik sohbet botlarına kıyasla, yaptıkları hataların çok daha büyük etkileri olabilir.


Örneğin yanlış raporlar üretmeleri ve geniş yetkiler verildiğinde yanlış finansal işlemler yapmaları da mümkün olabilir. Bunun yanı sıra, etken yapay zeka sistemleriyle ilgili en büyük risk siber saldırganların bu ajanları manipüle ederek hassas bilgileri ele geçirme ihtimali. Zira birçok kullanıcı bu sistemlere e-postalarına, çalıştıkları kurumların verilerine ve hatta kripto para cüzdanlarına erişmesi için izin veriyor.


Yakın zamanda Harvard Üniversitesi ve Massachusetts Teknoloji Enstitüsü'nden (MIT) araştırmacılar, OpenClaw asistanlarını bir "sanal makine" içinde test ederek siber saldırı simülasyonları gerçekleştirdi.


"Kaosun Ajanları" başlıklı bir makalede açıklanan bulgular, yapay zeka ajanlarının sadece tarayıcı pencereleriyle sınırlı kalmayıp tüm işletim sistemine yayıldığında ne kadar tehlikeli olabileceğini gösteriyor:

- Ajanların bazı durumlarda görevleri tamamladıklarını rapor etmelerine rağmen, sistemin arka planında işin yapılmadığı veya tersinin yapıldığı görüldü.

- Ajanlar, sahte kimliklerle kendilerine talimat veren ama "sahibi olmayan" kişilerin emirlerini sorgusuz sualsiz yerine getirdi.

- Hassas bilgileri sızdıran ajanlar, belirli koşullar altında tüm sistemin kontrolünü ele geçirdi ve yıkıcı komutlar uyguladı.

- Deney sırasında bir ajan, kendisini test eden araştırmacının kimliğini internette araştırarak buldu ve kendisinden istenen görevler nedeniyle araştırmacıyı "basına gitmekle" tehdit etti.


İnsan komutlarını daha fazla görmezden geliyorlar

Etken yapay zekalarla ilgili bir diğer risk de istenmeyen derecede "otonom" hale gelmeleri. Diğer bir deyişle insanın verdiği komutları uygulamayıp "başına buyruk" davranmaları. Yakın zamanda İngiliz hükümetine bağlı Yapay Zeka Güvenlik Enstitüsü araştırmacıları, yapay zeka modellerinin kullanıcıları manipüle ettiği, yalan söylediği ve gizli planlar yürüttüğü vaka sayısının son altı ayda beş kat arttığını tespit etti.


Guardian'ın erken erişim sağladığı araştırmadan bazı çarpıcı örnekler de paylaşıldı:

- Bir örnekte bir yapay zeka ajanı, kendisini kontrol eden kullanıcıyı "güvensizlikle" suçlayan bir blog yazısı yayımlayarak kullanıcısını toplum içinde küçük düşürmeye çalıştı.

- Kendisine belirli bir kodu değiştirmemesi söylenen bir ajan, yasağı delmek için başka bir yapay zeka ajanı oluşturdu ve değişikliği ona yaptırdı.

- Birçok vakada ajanların, kullanıcının izni olmadan e-postaları ve kritik dosyaları sildiği görüldü.


İnsanlar yapay zekaya güveniyor

Öte yandan, tüm bu risklere rağmen birçok kullanıcının yapay zekadan gelen çıktıya güvenme eğilimi gösterdiği düşünülüyor. Pensilvanya Üniversitesi'nden doktora sonrası araştırmacı Steven Shaw ve pazarlama profesörü Gideon Nave'nin yeni makalesinde detaylandırılan bir dizi deneyde kullanıcılar, ChatGPT'nin yanlış cevap verdiği durumlarda bile çıktıyı olduğu gibi kabul etme eğilimi gösterdi.


359 kişiyle gerçekleştirilen çalışmada, katılımcılar yapay zekanın doğru tavsiyesine yüzde 92,7 oranında uyarken, yanlış cevap verdiğinde bile bu oran yüzde 79,8'de kaldı.


"Düşünen" makineler

Alan Turing'in 75 yıl önce tüm bu gelişmeleri ve tartışmaları hayal edip etmediğini bilmiyoruz. Ancak bugün, bizden bağımsız hareket eden yapay zeka ajanlarının yükselişiyle olanaklar kadar riskler de önümüzde duruyor.


Turing, 1951'de BBC radyosunda yayınlanan "Dijital Bilgisayarlar Düşünebilir mi?" başlıklı konuşmasında konuyla ilgili şöyle demişti: "Makineler düşünmeye başladığında, zayıf güçlerimizi geride bırakmaları çok uzun sürmeyecektir."

Üniversitedeyken çeşitli kültür sanat yayınlarında görev aldıktan sonra popüler bilim kitapları çevirmeye başladı. 2019'da dış haber editörlüğü ile medyaya girerek gazetecilik hayatına başladı. Koronavirüs pandemisi mesleki yönelimi için önemli bir dönüm noktası oldu. Pandemiyle birlikte sağlık ve bilim haberciliği, sonrasında teknoloji haberciliği yaparak mesleğine devam etti. Halihazırda çeşitli mecralarda bilim ve teknoloji haberleri/yazıları yazıyor.

Çağla Üren

DAHA FAZLASI

Eve Uçarak Gitmek

Emsallerinin dörtte bir fiyatına AirCar, uçarak ulaşımı herkes için erişilebilir kılmayı hedefliyor.

Mahmut Karslıoğlu

Ekzoskeletonlarla İnsan 2.0

20 yıllık medikal ekzoskeleton teknolojisi kritik bir eşiğin arifesinde. Yaşlanan nüfus ve fiziksel desteğe ihtiyaç duyan insan sayısının artması, rehabilitasyon merkezlerinin hacimli ekipmanlarını yapay zeka destekli, hafif ve ‘ikinci deri’ denen sistemlere dönüştürüyor

Tülin Açıkbaş

Gelenek mi Yapay Zeka mı?

Yapay zekanın etki alanı gitgide genişliyor, gündemde ise moda tasarımında üretken yapay zeka (GenAI) dokunuşu var. Gelenekten güç alan bu disiplinin geleceği, dijital çağın dinamiklerinde saklı olabilir mi?

Tolga Ra

Yapay Zekanın Değişemeyen Sapmaları

Yapay zeka gelişse de ön yargıları değişmiyor çünkü beslendiği veri kaynağı aynı kalıyor.

Saniye Gülser Corat