1. Uluslararası Deniz Hukuku ve Teknolojileri Sempozyumu, Düzce, Türkiye, 20 - 22 Kasım 2025, ss.80, (Özet Bildiri)
Otonom
deniz taşımacılığı, yapay zekâ (YZ) tabanlı sistemlerin karar süreçlerine dâhil
edilmesiyle denizcilikte devrim niteliğinde bir dönüşüm yaratmaktadır. Ancak bu
gelişme, YZ kaynaklı hataların hukuki niteliği kadar, insan faktörünün yeni
biçimlerde ortaya çıkardığı riskleri de gündeme getirmektedir. İnsan unsurunun
tamamen ortadan kalkmadığı, ancak uzaktan gözetim ve acil müdahale rolüne
indirgenmiş olduğu bu sistemlerde, operatörler sürekli algoritmaları denetleme
baskısı altında kalmaktadır. Bu durum, literatürde “teknostres” olarak
tanımlanan bilişsel yük ve psikolojik baskıyı artırmakta; hataların yalnızca
algoritmik değil, aynı zamanda insan–makine etkileşiminden kaynaklanmasına yol
açmaktadır.
Çalışma, normatif ve doktrinel analiz yöntemiyle YZ
kaynaklı hataların hukuki sorumluluk rejimleri içerisindeki konumunu
tartışmakta, aynı zamanda teknostresin hukuki değerlendirmede dikkate alınması
gereken yeni bir boyut olduğunu ileri sürmektedir. Yara Birkeland ve Mayflower
gibi pilot projelerden hareketle, bu makale hataların “ihmal” veya “kusur”
kapsamında mı değerlendirileceği, yoksa insan faktörünün bilişsel sınırları
nedeniyle yeni bir sorumluluk rejimi mi gerekeceği sorusunu irdelemektedir. Sonuç
olarak, gelecekteki düzenlemelerin hem teknolojik kapasiteye hem de insan
üzerindeki psikolojik yükün hukuki niteliğine bağlı olacağı savunulmaktadır.
Autonomous
maritime transport, shaped by the integration of artificial intelligence (AI)
into decision-making processes, is transforming the shipping industry. Yet this
shift not only raises questions about the legal classification of AI-related
errors, but also highlights new risks associated with the human factor. In
systems where the human element is not eliminated but reduced to remote
monitoring and emergency intervention, operators face constant pressure to
supervise algorithms. This leads to increased cognitive load and psychological
strain—commonly described as “technostress”—which may contribute to errors
arising not solely from algorithms, but from human–machine interaction itself.
This paper employs a normative and doctrinal methodology
to examine the legal status of AI-related failures while arguing that
technostress must be considered as a novel dimension in liability debates.
Drawing on pilot projects such as the Yara Birkeland and the Mayflower
Autonomous Ship, the analysis questions whether such failures should fall under
traditional categories like negligence or fault, or whether the cognitive
limits imposed on human operators necessitate a new liability regime. It
concludes that future legal frameworks will depend not only on technological
capacity but also on acknowledging the legal implications of psychological
stress borne by human actors.