پروژه ایران : سال جدید میلادی برای تیلور سوئیفت با اتفاقی جنجالبرانگیز شروع شد؛ انتشار تصاویر جعلی و هرزهنگارانه از این ستارهی پاپ ثروتمند و چهرهی سال مجلهی تایم در سال ۲۰۱۷.
به گزارش پایگاه خبری پروژه ایران، این اتفاق ناخوشایند، هشداری به همهی ماست که ممکن است برخی از «آدمها» فناوریهای هوشمند نوین را برای مقاصد غیراخلاقی و آسیبزا به کار ببرند.
جنجالهای اخیر پیرامون تصاویرِ جعل عمیق (Deep Fake) تیلور سوئیفت نمونهای واضح از چالشهای اخلاقی و قانونی رو به رشدی است که توسط فناوریهای پیشرفته هوش مصنوعی ایجاد شده است.
انتشار چنین تصاویری در فرهنگهایی با گرایشهای سنتی و عرفیتر جرم است، ولی در جوامعی که این صنعت مشغول کسب درآمد است، موضوع رضایت فرد اهمیت زیادی دارد.
یعنی استفاده از جعل عمیق برای خلق تصاویر هرزهنگارانه و تصاویری بدون رضایت فرد داخل تصویر یک بیاخلاقی است که باید حدود جرمانگارانهی آن نیز مشخص شود.
گذشته از اینکه باید قانون به طور شفاف حدود این «تعرض» و «تجاوز» به حریم خصوصی افراد را مشخص کند، باید بدانیم که نادیده گرفتن یا مواجههی احساسی با این پدیده مشکلی را از هیچ فرهنگ و دولت/ملتی حل نمیکند.
چون چنین رفتارهایی میتواند تبعاتی غیرقابل پیشبینی برای جوامع به همراه داشته باشد. بهویژه جوامعی که کمتر با کاربردهای این فناوریها آشنا هستند، ممکن است بیشتر آسیب ببینند چون برای مواجهه با چنین بحرانهایی، آماده نشدهاند.
اینجاست که ممکن است شوخی کودکانه و غیراخلاقی یک نوجوان با اپلیکیشن هوشمند موبایلش تبدیل به فاجعهای ملی شود.
طوفان در راه است. دیر یا زود به همه جای دنیا میرسد. بهترین واکنش چیست؟ به جای هجوم بردن به سمت کلیت و تمامیت یک فناوری سودمند و کنار گذاشتن کامل آن، تمامی اطرافیان خود را با سویههای منفی و غیراخلاقی این فناوری نیز آشنا کنیم.
علی شاکر، نویسندهی این مقاله یک روزنامهنگار و پژوهشگر ارتباطات است. وی ضمن تأیید بر کژکارکردها و تأثیرات منفی هرزهنگاری در جامعه، معتقد است برای مواجهه با این پدیدهی نوین (یعنی تصاویر جعل عمیق هرزهنگارانه یا پورنوگرافیک) میبایست، دستکم پدر و مادرها را نسبت به این پدیده آشنا کنیم که تا دستکم از این فضای ارتباطی خطرناک دور نباشند؛ چرا که نشناختن این فضا ممکن است به ضرر همهی مردم جامعه تمام شود. شناخت این فضا میتواند ما و فرزندانمان را نسبت به تأثیرات منفی و غیراخلاقی این محصولات رسانهای تا حدی واکسینه کند.
البته جای توضیح نیست که «آموزش» و شناخت اصول اولیهی فناوریهای هوشمند و نوین رسانهای، از میزان هزینهها و خطرهای این طوفان اجتماعی میکاهد.
استفاده از هوش مصنوعی برای خلق محتوای هرزهنگارانه بدون رضایت سوژه؛ این اعمال، سوالات مهمی در مورد مرزهای اخلاقی فناوری و نیاز به چارچوبهای قانونی قوی برای حفاظت از افراد در برابر بهرهکشی دیجیتالی مطرح میکند.
در دنیایی که تدوین و طراحی یک ویدئو فقط به کمی اطلاعات اولیه نیاز دارد، محتوای هرزهنگارانه به سادگی قابل ساخت است. صنعت فیلمهای هرزهنگارانه، همزمان با تولد سینما به وجود آمد.
اگر زمانی عوامل اینگونه فیلمها، افرادِ به حاشیه رفته و آسیبدیدهی اجتماع بودند، اکنون کسانی در دنیا هستند که سعی میکنند یک شخصیت شناخته شده (Public Figure) را واژگون کنند تا به واسطهی سازوکار «اقتصاد توجه» در رسانهها، دنبالکنندهی بیشتری (بخوانید «توجه» بیشتری) جذب کنند.
آسیبهای جعل عمیق غیراخلاقی و غیرتوافقی
استفاده از فناوری جعل عمیق یا دیپفیک برای ایجاد محتوای غیرتوافقی، نگرانیهای اخلاقی جدی، مفاهیم چالش برانگیزی در زمینهی حفظ حریم خصوصی را به وجود میآورد.
دیپفیکهای غیرتوافقی منجر به آسیبهای اجتماعی بیشماری میشوند که طی سالهای اخیر دربارهی آن پژوهشهای متعددی انجام شده است.
در بحثهای مرتبط با نقد آثار هرزهنگارانه پژوهشهای قدیمیتر معتقدند که این تصاویر به حریم خصوصی نفوذ کرده و زنان را از انسانیت خارج میکند (هولمز، ۱۹۸۰) و زمینهای میشود برای بهرهکشی و سوءاستفادههای بعدی. در واقع این تصاویر منجر به بهرهکشی، باجگیری و از بین رفتن اعتماد در جامعه میشود.
همچنین این تصاویر، خشونت و نابرابریهای مبتنی بر جنسیت را تشدید میکنند. (Okedare et al, 2023)میتوان گفت انتشار این تصاویر یکی از عواملی است که به زنستیزی جامعهی امروز دامن میزند و نگرانی این است که نکند آدمها نتوانند میان تصاویر مجازیِ سیرکِ هرزهنگارانه و روابط واقعی با دیگر انسانها تمایز قائل شوند. اینجاست که باید نگرانی خود را از عینیتبخشی به اُبژگی جنسی زنان (Burkell and Gosse, 2019) ابراز کنیم.
همین موضوع سبب شده تا تداوم تروما در میان خانمهای آسیبدیده بیشتر باشد. (رحمان و همکاران، ۲۰۲۳) برای همین است که امروز میدانیم بیشتر این جور آزارها بر سلامت جسمی و روانی خانمها تأثیر میگذارد (هال و همکاران، ۲۰۲۳).
همهی انسانها، قربانی بالقوهی بیآبرویی جعلی
موضوع جعلعمیقهای غیرتوافقی به شخصیتهای مشهوری مانند تیلور سوئیفت محدود نمیشود، بلکه به شهروندان عادی نیز میتواند سرایت کند؛ این یعنی یک نگرانی اجتماعی فراگیر در جهان سلبریتیزدهی تشنهی توجه.
پروندههای پرمخاطب مربوط به افراد مشهور، توجهها را به خود جلب میکند، اما این اتفاق میتواند در میان شبکههای ارتباطی کوچکتر نیز تکرار شود و افراد معمولی و عادی جامعه را متاثر کند.
کشورهایی مانند بریتانیا با درک شدت و حساسیت موضوع، قانون ایمنی آنلاین سال ۲۰۲۳ را تصویب کردند. این قانون اشتراکگذاری هرزهنگاری جعل عمیق بدون رضایت و توافق را جرم میداند.
البته یادمان باشد تنظیم و اجرای قوانین علیه دیپفیکها به دلیل امکان ناشناس ماندن اینترنت، سهولت ایجاد و توزیع دیپفیکها و مسائل قضایی با چالشهایی مواجه است.
برای نمونه، به دلیلِ (کم و بیش) نوظهور بودن فناوری دیپفیکهای هرزهنگارانه بسیاری از نقاط دنیا هنوز قوانین خاصی در این زمینه تصویب نکردهاند و قربانیان نمیدانند برای شکایت باید به کدام مراجع قانونی و قضایی مراجعه کنند.
چه کنیم؟
فراتر از اقدامات قانونی، دستورالعملهای اخلاقی، روشهای تشخیص بهتر و آگاهی عمومی بسیار مهم است.
ظهور دیپ فیکهای غیر توافقی، که نمونهی آن مواردی مانند تیلور سویفت است، نیازمند رویکردی چند جانبه برای مبارزه با این تهدید دیجیتال است.
این شامل چارچوبهای قانونی قویتر، راهحلهای فناوری پیشرفته برای شناسایی و تغییر اجتماعی به سمت آگاهی بیشتر و استفادهی اخلاقی از فناوریهای هوش مصنوعی است.
بدانیم که آگاه ماندن و حمایت از واکنشهای دیجیتال مسئولانه برای جلوگیری از انتشار هرزهنگاریهای غیرتواقعی جعلی، حیاتی است. پس همگی کشورها و نهادهای مسئول در این حوزه باید برای اصلاحات قانونی تلاش کنند. ما هم باید از پیشرفتهای فناوری که به حریم خصوصی افراد احترام میگذارند، حمایت کنیم تا بتوانیم محیطهای دیجیتال امنتری برای خود و عزیزانمان بسازیم.
منابع
Burkell, J., & Gosse, C. (2019). Nothing new here: Emphasizing the social and cultural context of deepfakes. First Monday, 24(12). https://dx.doi.org/10.5210/fm.v24i12.10287
Okedare, O. O., & Fawole, O. (2023). Intimate partner violence among young women in Ibadan, Nigeria: are there slum and non-slum differences?. BMC Women’s Health. https://dx.doi.org/10.1186/s12905-023-02446-5
Hall, M., Hearn, J., & Lewis, R. (2023). Image-Based Sexual Abuse: Online Gender-Sexual Violations. Encyclopedia, ۳(۱). https://dx.doi.org/10.3390/encyclopedia3010020
Rahman, S., Lamba, A., Mohajir, N., Ceesay, H., Khayr, Y., Akhtar-Khaleel, W., & Spitz, G. (2023). Examining the Experience of Sexual Dysfunction and Spiritual Abuse among cis-Gender Muslim Women In North America. Journal of Sexual Medicine, 20(Supplement 2). https://dx.doi.org/10.1093/jsxmed/qdad061.004