به گزارش پایگاه خبری پروژه ایران، محمدمهدی فرقانی، روزنامهنگار و استاد علوم ارتباطات دانشگاه علامه طباطبایی در گفتوگو با هنرآنلاین، در خصوص اینکه حرکت به سمت هوش مصنوعی در رسانههای اجتماعی آخرین تلاش برای کسب سود بوده و ممکن است آخرین بقایای ارتباطات انسانی را از بین ببرد، گفت: بسیاری از طراحان هوش مصنوعی از جمله ایلان ماسک نیز در رابطه با این فضا اظهار نگرانی کردند، اما باید این مساله را در نظر گرفت که هوش مصنوعی ساخته دست انسان است و نمیتواند از بشر فراتر رود.
وی با بیان اینکه تئوری دیگری نیز در این زمینه وجود دارد که بر محدودیت دانستههای انسان تاکید دارد، عنوان کرد: هوش مصنوعی مجموعهای از دادهها را در خود جای داده که به اندازه میلیونها انسان داده و اطلاعات دریافت کرده است و میتواند فراتر از خالق خود عمل کند. بنابر این هوش مصنوعی یک نگرانی جهانی است.
این استاد علوم ارتباطات دانشگاه علامه طباطبایی گذر و گریز از تکنولوژی را امری غیر ممکن خواند و اظهار کرد: همواره باید این نگرانی را داشته باشیم، بنابراین توصیه میکنیم با یک دیدگاه انتقادی به تکنولوژی جدید نگاه کنیم و با احیاط به سمت آنها گام برداریم.
فرقانی با بیان اینکه وقتی کسب سود وارد این چرخه شود، کنترل آن دشوارتر میشود، گفت: ممکن است کسب سود هیچ مبنای اخلاقی را نیز به رسمیت نشناسد، دراین راستا فعالیت فیک نیوزها توجیه شود و همه چیز در خدمت افزایش سود قرار گیرد که این نگرانی نیز به جا است و یک تهدید بالقوه برای آینده بشر محسوب میشود.
وی با اشاره به پدیده نوظهور متاورس و چگونگی بهرهگیری از این فضا در ارتباطات، عنوان کرد: هر دستاورد تکنولوژیکی هم فرصتهایی را ایجاد میکند و هم تهدیدهایی را به وجود میآورد، بنابراین در زمینه ارتباطات و رسانه میتوان از این دستاوردها بهره برد و از آن در خدمت تقویت ارتباطات بهره گرفت و به مردم و جوامع بی صدا، صدا داد.
این استاد علوم ارتباطات دانشگاه علامه طباطبایی با بیان اینکه متاورس یک فضای دیجیتال گسترده تعاملی است که از همگرایی فناوریهایی همچون واقعیت مجازی(VR)، واقعیت افزوده (AR) و شبکههای اجتماعی حاصل میشود، گفت: اگر از آن استفاده با به هنجار صورت گیرد، تصاویر فیک و تولید محتوای غیرواقعی اعم از صوت و متن را شاهد خواهیم بود که یکی از آفات و عوارض تکنولوژیهای جدید است که باید آن را جدی بگیریم.
فرقانی با تاکید براینکه به سمتی حرکت میکنیم که حجم فیکنیوزها رو به افزایش است، خاطرنشان کرد: در شرایطی قرار داریم که حجم این اخبار غیرواقعی بر اطلاعات و اخبار دقیق و حقیقی غلبه میکند و این امر را در همه عرصهها اعم از سیاست، فرهنگ، اقتصاد و حوزه اجتماعی شاهد هستیم که در حوزه رسانه خطر بالقوه و بالفعل است و جای نگرانی دارد.
وی هوش مصنوعی و متاورس را گاه فضایی در راستای ضد ارتباط خواند و گفت: برخی اوقات این فضا برقرای ارتباطات را تسهیل نمیکند و ایجاد اختلاف، تبعیض، تردید و سوءظن را به همراه دارد و در همه زمینهها خطر جدیای محسوب میشود و مقرراتی برای آن وجود دارد، لذا همه افراد باید سطح سواد رسانهای خود را افزایش دهند تا آسیب نبینند.
این استاد علوم ارتباطات دانشگاه علامه طباطبایی اظهار کرد: برخی از کشورهای غربی برآن هستند کنترلهایی را روی تولید محتوا داشته باشند و در این راستا نرمافزارهایی طراحی شده تا بتوانند اخبار غیرواقعی و جعلی را تشخیص دهند، این امر اما مطلق نیست و همواره این خطر وجود دارد و روزبهروز نیز بیشتر میشود.
فرقانی با تاکید بر اینکه مردم باید بکوشند تکنولوژیهای جدید تبدیل به نارسانه نشوند، گفت: البته میتوان از هوش مصنوعی و متاورس در راستای کیفیت بین جوامع، گروههای انسانی استفاده کرد، با این حال اما سوءاستفاده در حال غلبه بر ارتباطات مثبت است.
وی افزود: متاورس در حوزه شبکههای اجتماعی، این شبکه را به سطح جدیدی از تعامل و حضور میرساند. کاربران میتوانند به صورت آواتارهای دیجیتالی با یکدیگر دیدار داشته باشند یا در جلسات حضور یابند. لذا میتوان امیدوار بود با وجود متاورس وضعیت رسانه و ارتباطات بهبود یابد.
فرقانی حضور مجازی در جایی که حضور فیزیکی امکانپذیر نیست، را جنبه مثبت بهرهگیری از متاورس دانست و خاطرنشان کرد: با این حال باید مراقب عوارض آن بود؛ چراکه بستگی دارد تکنولوژی در اختیار چه کسی قرار دارد و چگونه از آن بهره میگیرد.
استاد علوم ارتباطات دانشگاه علامه طباطبایی با بیان اینکه حتی در رسانههای سنتی نیز این اصل همیشه مطرح بوده و وقتی در خصوص آثار اجتماعی رسانهها صحبت میکنیم، باید بنگریم رسانه در اختیار چه کسی است و با چه منظور و جامعه هدفی از آن استفاده میکند، اظهار کرد: سواد رسانه در این راستا کاربرد دارد و سواد اطلاعاتی و هوش مصنوعی نیز باید به آن اضافه شود تا مردم ابزاری برای تشخیص داشته باشند و بتوانند ناخالصیها را از این فضا جدا کنند و آسیب نبینند.