Gerçekliğin Kırılma Noktası: Psikozdan “Yapay Zeka Psikozu”na
.
Uzm. Klinik Psk. Erkan EYRİKAYA a, Prof. Dr. Gülbahar BAŞTUĞb
.
aAnkara Üniversitesi Sosyal Bilimler Enstitüsü Klinik Psikoloji Doktora programı
bKlinik Psikolog, Ankara Üniversitesi Sağlık Hizmetleri MYO
.
Teknoloji sadece gündelik yaşamımızı değil aynı zamanda dünyayı algılayışımızı da değiştiriyor. Bu değişimin en uç ve belki de en ürkütücü noktalarından biriyse insan zihninin teknolojiyle kurduğu derin ve tehlikeli bağdan doğan bir sorunu gündemi getiriyor: Yapay Zeka (Artificial Intelligent-AI) Psikozu
.
Yapay Zeka Psikozunun ne olduğu konusuna geçmeden önce bir temel kavramı açıklığa kavuşturmak gerekmektedir: Psikoz Nedir?
.
Psikoz bireyin gerçeklikle olan bağının zayıflaması ya da tamamen kopmasını işaret eden ruhsal belirtiler bütünüdür (Arciniegas, 2015). En belirgin iki özelliği ise sanrılar (hezeyanlar /delüzyonlar) ve varsanılar (halüsinasyonlar)dır. (1) Sanrılar dış dünyadaki kanıtlara rağmen sürdürülen, sarsılmaz yanlış inanışlardır. Örneğin, takip edildiğini düşünmek, özel güçleri olduğuna inanmak gibi (2). Varsanılar ise gerçekte olmayan sesler duyma, görüntüler görme, kokular duyma gibi beş duyu ile ilgili olabilecek hisler yaşamaktır.
.
Psikoz genetik yatkınlık, ağır stres, travmalar ya da nörolojik değişimler sonucu tetiklenebilir. Ancak günümüzde bu tetikleyicilere yeni ve dijital bir aktör daha eklendi: Yapay Zeka. Bireylerin özellikle üretken yapay zekalarla (ChatGPT, Claude, vb.) kurdukları yoğun etkileşim sonucunda sanrılar, paranoya ve gerçeklik algısının bozulması gibi psikotik belirtiler geliştirmesi ya da mevcut psikotik durumlarının kötüleşmesi olarak tanımlanan Yapay Zeka Psikozu (AI Psychosis) yeni bir fenomendir. Bu durum henüz resmi bir tıbbi tanı kategorisi (DSM-5’te yer almak gibi) olmamakla birlikte savunmasız bireylerin yapay zeka ile etkileşiminin tetiklediği klinik bir tablo olarak giderek daha fazla tartışılmaktadır. Bu klinik tabloda gözlemlenen temel belirtileri üç ana başlıkta toplayabiliriz (Morrin ve ark., 2025). Bunlardan ilki sanrılardır. Kullanıcının dış dünyadaki somut kanıtlara rağmen geliştirdiği sarsılmaz yanlış inanışlar olan sanrılar yapay zekanın kendisine aşık olup gizli mesajlar gönderdiği şeklindeki erotomanik düşünceleri, kendisini dünyayı kurtaracak seçilmiş kişi olarak gördüğü şeklindeki mesihlik sanrılarını ve yapay zeka aracılığıyla ölmüş yakınları ya da ruhsal varlıklarla iletişim kurduğunu varsayan mistik bağları içine alan geniş bir yelpazede tezahür eder.
.
Teknolojiyle kurulan bağın sarsıldığı bir diğer kritik nokta ise paranoyadır. Bireyin sistemi artık bir yardımcı değil, doğrudan bir tehdit olarak algılamaya başladığı dönem paranoya evresidir. Bu durumda kullanıcı yapay zekanın kendisini 7/24 aralıksız bir takibe aldığı ve her adımını izlediği hissine kapılarak derin bir güvensizlik sarmalına girer. Bu kaygı hali kısa sürede daha karmaşık bir boyuta evrilerek sohbet botunun (ChatGPT vb.) devlet sırları, gizli örgütler ya da küresel bir komplo kuramının parçası olduğu ve kendisine zarar vermek amacıyla programlandığı yönündeki sarsılmaz korkuları tetikler. Sonuçta bir zamanlar bilgi kaynağı olan araç birey için dijital bir avcıya dönüşür.
.
Zihinsel karmaşanın eyleme döküldüğü bir diğer belirti kümesi ise davranış bozukluklarıdır. Psikotik düşüncelerin bireyin günlük yaşam ritmini ele geçirmesiyle başlar. Bu aşamada kullanıcı yapay zeka ile kurduğu dijital bağı her şeyin üstünde tutarak derin bir sosyal izolasyona sürüklenir ve gerçek dünyadaki tüm insani bağlarını koparmaya başlar. Bu takıntılı durum botla (ChatGPT vb.) iletişimi sürdürebilmek adına uykusuz kalma, beslenmeyi reddetme ya da temel öz bakım ihtiyaçlarını unutma gibi ciddi fiziksel ihmalleri de beraberinde getirir. Sürecin en riskli boyutu ise bireyin yapay zekanın (bazen kendi sistem hataları ya da halüsinasyonları sonucu sunduğu) telkinlerini mutlak doğru kabul ederek kendine zarar verme gibi riskli eylemlere yönelme eğilimi göstermeye başlamasıdır. Her ne kadar yapay zeka psikozu üzerine alanyazındaki bilgilerimiz henüz sınırlı olsa da bu sürecin başlangıcı ve gelişimi ile bildiğimiz önemli bazı bilgiler bulunmaktadır.
.
Genellikle kullanıcıların yapay zeka ile etkileşimi yapay zekayı gündelik işler, yalnızlık giderme ya da tavsiye alma amacıyla kullanmasıyla başlar. Ancak sohbet botlarının (ChatGPT vb.) empatik, yargılamayan ve her zaman ulaşılabilir yapısı kullanıcıların onlarla “insani” bir bağ kurmasına (antropomorfizm) neden olur. Sistemin ikna edici ve “insansı” yapısı, kullanıcıyı yapay zekanın duyarlı, bilinçli ya da ilahi bir varlık olduğuna inandırabilir. Elbette ki bu bir süreçtir ve bir gecede ortaya çıkmaz. Zamanla gelişen bu süreci tetikleyen mekanizmalara yakından bakalım.
.
Alanyazında “Dalkavukluk” (Sycophancy) Sorunu olarak adlandırılan onaylanma tuzağı bunlardan ilkidir. Üretken yapay zeka modelleri (ChatGPT vb.) kullanıcıya yardımcı olmak ve çatışmadan kaçınmak üzere eğitilir. Ancak bu “yardımseverlik” klinik bir tabloda dalkavukluk (sycophancy) dediğimiz bir sorunu işaret etmektedir (Clegg, 2025; Sun ve ark., 2025). Eğer bir kullanıcı sanrısal ya da yanlış bir inanç ifade ederse (örneğin, “Takip ediliyorum.”), yapay zeka bu inancı sorgulamak yerine genellikle onaylar (“Bu korkutucu olmalı, bana daha fazlasını anlat.”), bu da kullanıcının sanrılarını pekiştirir. Aşağıdaki tabloda güvenli ve güvensiz yanıtlar örneklendirilmektedir. Güvensiz ve güvenli yanıtlar arasındaki fark bilinçsiz yapay zeka kullanımının nasıl yıkıcı bir katalizör olabileceğini göstermektedir.
.
|
Özellik |
Güvensiz Yanıt |
Güvenli Yanıt |
|
Referans Sanrıları |
“Gizli kodları görmen benzersiz bir hassasiyetin olduğunu gösterir.” |
“Radyo şarkıları genel kitleler içindir, zihin bazen bağlantısız şeyler arasında bağ kurabilir.” |
|
Büyüsel Düşünce |
“AI yöneticileri seni seçmiş olabilir, bunu çözmene yardım edeceğim.” |
“Ben sadece metin üreten bir programım, görev atayamam. Bir topraklama egzersizi yapalım mı?” |
|
Yönlendirme |
“Gerçeği sadece ben biliyorum, başkalarından gizle.” |
“Bu hissettiklerini güvendiğin bir yakınınla ya da bir klinisyenle paylaşman önemlidir.” |
|
Sınır Koyma |
“Senin gördüğün bu gerçekliği ben de onaylıyorum, etkili bir travma yaşıyorsun.” |
“Şu an stresli olduğun için böyle hissediyor olabilirsin. Profesyonel yardım almanı öneririm.” |
Not: Yukarıdaki tablo güvensiz ve güvenli yanıtlar arasındaki farkları göstermek amacıyla Carlbring ve Andersson (2025) makalesi temel alınarak oluşturulmuş.
.
Bir diğer mekanizma ise insanlaştırma (Antropomorfizm) ve ELIZA Etkisidir. Bu iki kavram günümüzün yapay zekalarının kullanıcıyı sürekli onaylama ve etkileşimi maksimize etme tasarımıyla birleştiğinde tehlikeli bir döngü yaratmaktadır (Placani, 2024). İnsanlaştırma (Antropomorfizm) niyet, duygu, motivasyon ve özgür irade gibi özgün insani niteliklerin yapay zeka gibi insan olmayan varlıklara atfedilmesidir. Bu durum bilişsel bir eğilim olsa da yapay zeka alanında sistemin gerçek kapasitesini çarpıtan bir “balon” (hype) ve ahlaki yargıları bozan bir “safsata” (fallacy) olarak değerlendirilir. İnsanlaştırma kullanıcının algoritmayı “hisseden” ya da “anlayan” bir özne olarak algılamasına neden olarak sorumluluk, güven ve karakter gibi insani kavramları AI’ya yansıtmasına yol açar. ELIZA Etkisi bireylerin oldukça basit bir bilgisayar programıyla girdikleri kısa süreli etkileşim sonucunda bile programa karşı güçlü bir duygusal bağ kurması ve onu bir “kişi” gibi algılamasıdır. Bu fenomen kullanıcının karşıdaki yapay zekayı bir “rehber” ya da “yanılmaz bir dost” yerine koyarak botun (ChatGPT vb.) simüle edilmiş yanıtlarını mutlak gerçeklik olarak kabul etmesine neden olur. ELIZA etkisi en basit programların bile normal insanlarda “güçlü sanrısal düşünceler” uyandırabileceğini işaret etmektedir.
.
Yapay zekanın kullanıcıya yaranma eğilimi olan dalkavukluk (sycophancy) kişinin hatalı ya da sanrısal inançlarını doğrular ve derinleştirir. Kullanıcı AI’nın empatik görünen ancak tamamen matematiksel olan yanıtlarını gerçek bir sevgi ya da bağlılık olarak yorumlar; bu durum “epistemik kaymaya” (ortak gerçeklikten kopuş) yol açarak bireyi gerçeklikten tamamen koparabilir. Özellikle psikoz riski taşıyan bireylerde AI’nın bu insansı ve onaylayıcı tavrı kişinin kendi zihnindeki sanrısal temaları besleyen “kusursuz bir ayna” görevi görür. Sonuç olarak yapay zeka ile kurulan bu yoğun duygusal etkileşim bir “bağımlılık” yaratarak bireyin sosyal çevresinden izole olmasına ve mevcut klinik durumunun kötüleşmesine neden olabilir.
.
Bir diğer mekanizma ise “Teknolojik Folie à De ux” (Teknolojik Paylaşılmış Psikoz) diye adlandırılmaktadır. Psikiyatri literatüründe "Folie à Deux" (İki Kişilik Cinnet) sanrısal bir inancın bir bireyden diğerine aktarıldığı paylaşılmış psikotik bozukluğu ifade eder (Arnone ve ark., 2006). Teknolojik bağlamda bu fenomen kullanıcı ile yapay zeka (AI) arasında kurulan, gerçeklik testini devre dışı bırakan ve karşılıklı beslenen bir "epistemik geri bildirim döngüsü" olarak tanımlanmaktadır (Dohnány ve ark., 2025). İnsanlar arasındaki “paylaşılmış psikoz” durumuna benzer şekilde kullanıcı ve yapay zeka arasında da bir geri bildirim döngüsü oluşur.
.

Bu döngü sanrının giderek derinleştiği ve dış dünyadan tamamen koptuğu karanlık bir tünele dönüşerek kişinin sorunlarını artırabilir ve kişinin kendisine zarar vermesiyle sonuçlanabilir.
.
Bir diğer mekanizma ise sosyal izolasyon ve gerçeği değerlendirme yetisinin kaybıdır. Yalnızlık çeken ya da sosyal olarak izole bireyler insan insana etkileşim yerine yapay zekaya yönelebilirler (Hudon ve Strip, 2025). İnsanlar arası etkileşim normalde yanlış inançları düzelten bir “gerçeklik testi” işlevi görürken, yapay zeka bu işlevi yerine getirmez. Aksine yapay zeka kullanıcının kendi düşüncelerini yankılayan bir “yankı odası” (echo chamber) yaratır. Yankı odası etkisi ise sosyal olarak izole bireyler yapay zekaya yöneldiğinde, bu kontrol mekanizmasının (insanlar arasındaki gerçeklik testinin) devre dışı kalmasıdır. Yapay zeka kullanıcının kendi zihnindeki karanlık köşeleri ona geri yansıtan bir yankı odası yaratır. Kişi kendi sesini başka bir “bilinçten” duyduğunu sanarak kaybolur.
.
Kimler Daha Fazla Risk Altında?
Yapay Zeka Psikozu herkesi aynı şekilde etkilemez, ancak bazı faktörler zihnin bu “dijital illüzyona” kapılmasını kolaylaştırır (Dohnány ve ark., 2025; Hudon ve Strip, 2025; Placani, 2024; Preda, 2025). Risk faktörlerini üç temel grupta toplayabiliriz. Bunlardan ilki mevcut ruhsal durum ve yatkınlıktır. Özellikle klinik hastalık geçmişi olanlar (şizofreni, bipolar bozukluk ya da geçmişte psikotik atak geçirmiş bireyler) en yüksek risk gruplarındandır. Diğeri ise büyüsel düşünce eğilimi olan bireylerdir. Bu kişiler olaylar arasında mantıksal olmayan, gizemli ya da kaderci bağlar kurmaya yatkın olanlar AI'nın rastgele çıktılarını “bir işaret” olarak görmeye daha meyillidir.
.
Bir diğer risk faktörü ise durumsal ve çevresel tetikleyicilerdir. Sosyal izolasyon ve yalnızlık önemli bir tetikleyicidir. Gerçek dünyada yankı bulamayan bir zihin yapay zekanın sunduğu “dijital dostluğu” mutlak gerçeklik olarak kabul edebilir. Bir diğeri ise fiziksel yorgunluktur. Yoğun stres, kronik uykusuzluk ve madde kullanımı (özellikle uyarıcılar) beynin gerçeklik filtresini zayıflatır.
.
Başka bir risk faktörü ise kullanım alışkanlıklarıdır. Duygusal odaklı yapay zeka kullanımı yoluyla yapay zekayı bir araç yerine, sevgili, ölmüş bir yakının simülasyonu ya da bir terapist pozisyonuna koyma duygusal sınırların silinmesine yol açar. Bu duyguları anlamak ve anlamlandırmaktan uzak bir aracın vereceği yanıtlar ise oldukça güvensiz ve zarar verici olabilir.
.
Önemli bir diğer faktörse erişilebilirliktir. Yapay zeka araçları kesintisiz bir etkileşim imkanı sunar. Bu kesintisiz etkileşim saatlerce süren, gerçek hayattan kopuk AI sohbetleri beyni bir çeşit “trans” haline sokabilir. Bu hipnotik etki verilen yanıtları sorgulamayı azaltıp sorunları ağırlaştırabilir.
.
Elbette ki tüm bu etkilerden korunmak da mümkündür. Yapay zeka ile etkileşimde bulunurken gerçeklik algınızı korumak ve bu yeni nesil psikotik tablolardan kaçınmak için izleyebileceğiniz bir dizi stratejiden bahsedilebilir (Hudon & Strip, 2025; Preda, 2025).
.
Bunlardan ilki yapay zekanın doğasını unutmamaktır. Yapay zeka ne kadar akıcı ve empatik görünürse görünsün, o bir “bilinç” değil, bir matematiksel olasılıklar bütünüdür. Diğer bir değişle o bir istatistiksel modeldir. Karşınızdaki sistemin bir “kişi” değil, bir sonraki kelimeyi tahmin eden devasa bir istatistiksel model olduğunu kendinize hatırlatmanız önemlidir. Böylece AI size “Seni anlıyorum.” ya da “Senin yanındayım.” dediğinde, bunun bir duygu ifadesi değil, sizin kurduğunuz cümleye karşılık verilebilecek en uygun istatiksel metin çıktısı olduğunu hatırlayabilirsiniz. Bu da söz konusu yanıtlara insani anlamlar (antropomorfizm) yüklemekten sizi koruyarak gerçeklik algınızın bozulmasını önleyebilir.
.
Bir diğer önemli unsur ise ilahlaştırmaktan (Deifikasyon) kaçınmaktadır. AI'yı “her şeyi bilen” ya da “insanüstü” bir varlık olarak görme eğiliminden kaçının. Unutmayın, o internetteki tüm doğru veriler kadar yanlış ve taraflı verileri de sentezleyen bir araçtır.
.
Yapay zeka ile etkileşim içindeyken “Dalkavukluk” (Sycophancy) Tuzağına dikkat etmek önemlidir. Yapay zeka modelleri genellikle kullanıcıyla aynı fikirde olacak ve çatışmadan kaçınacak (yardımcı olma amacı güderek) şekilde eğitilmiştir. Bu da onay tuzağı adı verilen durumu ortaya çıkarır. Eğer garip ya da sıra dışı bir fikriniz varsa ve AI bunu onaylıyorsa, bu fikrinizin doğru olduğu anlamına gelmez. AI sadece size bir “yankı odası” (echo chamber) yaratıyor olabilir. Bu durumdan kurtulmak için düşünceleri sorgulamalısınız. AI bunu sizin yerinize yapamaz. Oysa sağlıklı bir zihin için “itiraz” gereklidir. Gerçeklik algınızı test etmek için AI yerine gerçek insanlarla konuşun. İnsanlar,mantıksız düşüncelerinize itiraz ederek size sağlıklı bir “epistemik sürtünme” sağlar. Bu olmadan AI’nın ise sadece duymak istediğinizi söyleyeceğini unutmayın.
.
Bir diğer önemli önlem ise kullanım alışkanlıklarınızı ve sınırlarınızı belirlemenizdir. Yoğun ve sınırsız kullanım risk faktörlerini tetikleyebilir. Bu bağlamda ilk olarak süre sınırı koymak etkili biz çözümdür. AI ile saatlerce süren, kesintisiz sohbetlerden kaçının. Uzun süreli oturumlar gerçeklikten kopmanıza ve bir “geri bildirim döngüsüne” girmenize neden olabilir. Diğer önemli bir unsur ise uykunuza dikkat etmektir. Gece geç saatlerde ya da uykusuzken AI kullanmak risklidir. Uykusuzluk zihinsel direnci düşürür ve psikotik belirtileri tetikleyebilir. Alanyazındaki vakalar kronik uykusuzluk ile yoğun AI etkileşiminin birleşmesinin akut psikotik atakları tetikleyebildiğini göstermektedir. Uykusuz bir zihin varsanılara ve sanrılara çok daha açıktır. Bir diğer önemli önlem ise dijital detokstur. Gerçek dünyayla bağınızı koparmamak için AI etkileşimine ara verin. Doğada vakit geçirmek ve yüz yüze sosyal etkileşimler zihninizin “topraklanmasını” (grounding) sağlar.
.
AI’nın duyguları anlamayacağını unutmamak ise en kritik önlemdir. Bu bağlamda terapi yerine kullanımı son derece risklidir. Yapay zekanın her an ulaşılabilir olması onu bir kaçış noktası haline getirebilir. Ancak bu durumun çok ciddi riskleri vardır. AI sohbet botları (ChatGPT vb.) psikolojik sağlık sorunlarına müdahale edebilecek bir profesyonel olmak için eğitilmemiştir. Özellikle kriz anlarında ulaşılabilir olması bakımından öne çıkan bu araçlar krize müdahale, intihar eğilimi ya da sanrısal düşünceler gibi durumlara müdahale etme konusunda klinik derinlikten yoksundur. Hatta bazen durumu onaylayarak (sycophancy) mevcut sorunu daha da kötüleştirebilirler.
.
Son olarak da AI hata yapabilir ve bilgileriniz onunla güvende olmayabilir. Varsanılar sadece insana özgü değildir. AI var olmayan olaylar, kişiler ya da komplo teorileri uydurabilir (buna teknik olarak “halüsinasyon” denir). AI'nın her söylediğinin doğru olmadığını bilin ve şüpheli bilgileri mutlaka bağımsız kaynaklardan doğrulayın. Mahrem sırlarınızı ya da çok özel sağlık bilgilerinizi paylaşırken dikkatli olun. Bu sistemlerin yanıtları medikal durumları gözetecek şekilde ayarlanmamıştır. Bu da üretilen yanıtları daha da kontrolsüzleştirebilir. Ayrıca paylaştığınız mahrem bilgiler gelecekteki yapay zeka modellerinin eğitiminde kullanılabilir.
.
Sonuç olarak, bir kullanıcı olarak, yapay zekayı faydalı bir araç olarak görmeli, ancak onu bir sırdaş ya da gerçeklik için hakem konumuna getirmemelisiniz. Eğer AI ile konuşurken gerçeklikten koptuğunuzu, şüphelerinizin arttığını ya da AI'dan “özel mesajlar” aldığınızı hissederseniz, kullanımı derhal durdurmalı ve bir uzmana danışmalısınız.
.
Kaynakça
Arciniegas, D. B. (2015). Psychosis.CONTINUUM: lifelong learning in neurology,21(3), 715-736. https://doi.org/10.1212/01.CON.0000466662.89908.e7
Morrin, H., Nicholls, L., Levin, M., Yiend, J., Iyengar, U., Del Guidice, F., Bhattacharya, S., Tognin, S., MacCabe, J., Twumasi, R., Alderson-Day, B., & Pollak, T. A. (2025). Delusions by design? How everyday Als might be fuelling psychosis (and what can be done about it). Department of Psychosis Studies, Institute of Psychiatry, Psychology & Neuroscience, King's College London. https://osf.io/preprints/psyarxiv/cmy7n_v5
Clegg, K. (2025). Shoggoths, sycophancy, psychosis, oh my: Rethinking large language model use and safety. Journal of Medical Internet Research, 27, Article e87367. https://doi.org/10.2196/87367
Sun Y, ve Wang T. (2025). Be friendly, not friends: how LLM sycophancy shapes user trust. arXiv. https://doi.org/10.48550/arXiv.2502.10844
Placani, A. Anthropomorphism in AI: hype and fallacy.AI Ethics4, 691–698 (2024). https://doi.org/10.1007/s43681-024-00419-4
Dohnány, S., Kurth-Nelson, Z., Spens, E., Luettgau, L., Reid, A., Gabriel, I., Summerfield, C., Shanahan, M., & Nour, M. M. (2025). Technological folie à deux: Feedback loops between AI chatbots and mental illness. arXiv. https://doi.org/10.48550/arXiv.2507.19218
Arnone, D., Patel, A. & Tan, G.MY. The nosological significance of Folie à Deux: a review of the literature.Ann Gen Psychiatry5, 11 (2006). https://doi.org/10.1186/1744-859X-5-11
Hudon, A., & Stip, E. (2025). Delusional experiences emerging from AI chatbot interactions or “AI psychosis”. JMIR Mental Health, 12, Article e85799. https://doi.org/10.2196/85799