Yapay Zekâ, Teknostres ve Hukuki Sorumluluk: Otonom Deniz Taşımacılığında İnsan Faktörünün Dönüşümü


Selçuk Y. A., Hazar M.

1. Uluslararası Deniz Hukuku ve Teknolojileri Sempozyumu, Düzce, Türkiye, 20 - 22 Kasım 2025, ss.80, (Özet Bildiri)

  • Yayın Türü: Bildiri / Özet Bildiri
  • Basıldığı Şehir: Düzce
  • Basıldığı Ülke: Türkiye
  • Sayfa Sayıları: ss.80
  • Kocaeli Üniversitesi Adresli: Evet

Özet

Otonom deniz taşımacılığı, yapay zekâ (YZ) tabanlı sistemlerin karar süreçlerine dâhil edilmesiyle denizcilikte devrim niteliğinde bir dönüşüm yaratmaktadır. Ancak bu gelişme, YZ kaynaklı hataların hukuki niteliği kadar, insan faktörünün yeni biçimlerde ortaya çıkardığı riskleri de gündeme getirmektedir. İnsan unsurunun tamamen ortadan kalkmadığı, ancak uzaktan gözetim ve acil müdahale rolüne indirgenmiş olduğu bu sistemlerde, operatörler sürekli algoritmaları denetleme baskısı altında kalmaktadır. Bu durum, literatürde “teknostres” olarak tanımlanan bilişsel yük ve psikolojik baskıyı artırmakta; hataların yalnızca algoritmik değil, aynı zamanda insan–makine etkileşiminden kaynaklanmasına yol açmaktadır.

Çalışma, normatif ve doktrinel analiz yöntemiyle YZ kaynaklı hataların hukuki sorumluluk rejimleri içerisindeki konumunu tartışmakta, aynı zamanda teknostresin hukuki değerlendirmede dikkate alınması gereken yeni bir boyut olduğunu ileri sürmektedir. Yara Birkeland ve Mayflower gibi pilot projelerden hareketle, bu makale hataların “ihmal” veya “kusur” kapsamında mı değerlendirileceği, yoksa insan faktörünün bilişsel sınırları nedeniyle yeni bir sorumluluk rejimi mi gerekeceği sorusunu irdelemektedir. Sonuç olarak, gelecekteki düzenlemelerin hem teknolojik kapasiteye hem de insan üzerindeki psikolojik yükün hukuki niteliğine bağlı olacağı savunulmaktadır.

Autonomous maritime transport, shaped by the integration of artificial intelligence (AI) into decision-making processes, is transforming the shipping industry. Yet this shift not only raises questions about the legal classification of AI-related errors, but also highlights new risks associated with the human factor. In systems where the human element is not eliminated but reduced to remote monitoring and emergency intervention, operators face constant pressure to supervise algorithms. This leads to increased cognitive load and psychological strain—commonly described as “technostress”—which may contribute to errors arising not solely from algorithms, but from human–machine interaction itself.

This paper employs a normative and doctrinal methodology to examine the legal status of AI-related failures while arguing that technostress must be considered as a novel dimension in liability debates. Drawing on pilot projects such as the Yara Birkeland and the Mayflower Autonomous Ship, the analysis questions whether such failures should fall under traditional categories like negligence or fault, or whether the cognitive limits imposed on human operators necessitate a new liability regime. It concludes that future legal frameworks will depend not only on technological capacity but also on acknowledging the legal implications of psychological stress borne by human actors.