This study investigates the impact of integrating visual and auditory modalities into neural machine translation (NMT) processes. Traditional text-based NMT models face limitations in translation quality due to their inability to capture contextual and cultural nuances effectively. This research demonstrates that incorporating visual and auditory elements—such as scene context, character expressions, intonation, and emphasis—leads to significant improvements in translation quality. The study highlights the capacity of multimodal models to preserve cultural and emotional contexts beyond linguistic fidelity. It explores the potential of these models in various applications, including subtitle translation, video game localization, and educational materials. The findings show that visual and auditory modalities enhance the interaction with linguistic context, producing context-aware and culturally aligned content in translation processes. Additionally, this work systematically compares deep learning models such as Transformer, BERT, and GPT, evaluating their characteristics in improving translation quality. The results indicate that new technologies integrating visual and auditory contexts offer significant advantages over traditional text-based models. This has important implications for both theoretical discussions and practical applications.
multimodal translation neural machine translation (NMT) audiovisual translation (AVT).
Bu çalışma, görsel ve işitsel modalitelerin sinirsel makine çevirisi (NMT) süreçlerine entegrasyonunun etkisini incelemektedir. Geleneksel metin tabanlı NMT modelleri, bağlamsal ve kültürel nüansları yeterince yakalayamadığından, çeviri süreçlerinde sınırlılıklar yaşamaktadır. Bu çalışma, görsel ve işitsel unsurların (sahne bağlamı, karakter ifadeleri, tonlama, vurgulama gibi) eklenmesiyle çeviri kalitesinde anlamlı iyileşmeler sağlandığını ortaya koymaktadır. Multimodal modellerin, dilsel sadakatin ötesinde kültürel ve duygusal bağlamları koruma kapasitesine dikkat çekilmiştir. Çalışma, bu modellerin altyazı çevirisi, video oyun yerelleştirmesi ve eğitim materyalleri gibi farklı uygulama alanlarındaki potansiyelini incelemektedir. Bulgular, görsel ve işitsel modalitelerin dilsel bağlamla etkileşimlerini geliştirerek çeviri süreçlerinde bağlam duyarlı ve kültürel olarak uyumlu içeriklerin üretilmesini sağladığını göstermiştir. Bu çalışma ayrıca, Transformer, BERT ve GPT gibi derin öğrenme modellerini sistematik bir şekilde karşılaştırıp, çeviri kalitesini iyileştirme konusundaki özelliklerini değerlendirmiştir. Sonuçlar, görsel ve işitsel bağlamları entegre eden yeni teknolojilerin, geleneksel metin tabanlı modeller üzerine anlamlı üstünlükler sağladığını ortaya koymaktadır. Bu durum hem teorik tartışmalara hem de pratik uygulamalara önemli bir katkı sunmaktadır.
çoklu modalite çevirisi sinirsel makine çevirisi görsel işitsel çeviri.
Birincil Dil | İngilizce |
---|---|
Konular | Çeviri ve Yorum Çalışmaları, Karşılaştırmalı Dil Çalışmaları |
Bölüm | Araştırma Makaleleri |
Yazarlar | |
Erken Görünüm Tarihi | 27 Mart 2025 |
Yayımlanma Tarihi | 28 Mart 2025 |
Gönderilme Tarihi | 2 Ocak 2025 |
Kabul Tarihi | 26 Mart 2025 |
Yayımlandığı Sayı | Yıl 2025 Cilt: 8 Sayı: 1 |
* Hakemlerimizin uzmanlık alanlarını detaylı olarak girmesi süreçte hakem ataması açısından önem arz etmektedir.
* Dergimize gönderilen makaleler sadece ön değerlendirme sürecinde gerekçe gösterilerek geri çekilebilir. Değerlendirme sürecine geçen makalelerin geri çekilmesi mümkün değildir. Anlayışınız için teşekkür eder iyi çalışmalar dileriz.