اجتماعی 11 دی 1403 - 6 ماه پیش زمان تقریبی مطالعه: 1 دقیقه
کپی شد!
0
دکتر حمید ضیایی پرور دانش آموخته ارتباطات

مقایسه اخلاقی هوش مصنوعی و فضای مجازی

هوش مصنوعی مولد نسبت به فضای مجازی موجود، از نظر اخلاقی، سالم تر و منزه تر است.

هوش مصنوعی

هوش مصنوعی مولد نسبت به فضای مجازی موجود، از نظر اخلاقی، سالم تر و منزه تر است. این را نتایج یک تحقیق علمی که توسط نویسنده انجام شده نشان داد. هوش مصنوعی به دسته ای از فناوری ها و الگوریتم هایی گفته می شود که به سیستم های رایانه ای توانایی انجام عملیاتی از جمله یادگیری، درک، فهم، استنتاج، حل مسئله، پیش بینی، تصمیم گیری و اقدام خودکار را می دهند. هوش مصنوعی مولد، شاخه ای از هوش مصنوعی است که در آن ماشین ها می توانند به طور مستقل محتوای جدید و منحصر به فرد ایجاد کنند. این محتواها می تواند شامل انواع متن مانند مقاله، کتاب، داستان، فیلمنامه، خبر، شعر، لطیفه، گزارش و نامه ، انواع عکس و تصویر و فیلم ، شبیه سازی صدا و ساخت موسیقی، انواع گرافیک مانند پوستر، انیمیشن، کارتون، موشن گرافی و اینفوگرافی، محاوره و جستجو در اینترنت، و انواع فایل مانند پاورپوینت باشد.
برخی از مهمترین مصادیق هوش مصنوعی مولد عبارتند از:
چت بات ها، ابزارهای تبدیل عکس به متن، ابزارهای تبدیل متن به عکس، ابزارهای تبدیل صوت به متن، ابزار تبدیل نقاشی به انیمیشن ، ابزارهای ترجمه متن و صوت، ابزارهای ترجمه صوت به صوت، ابزار تولید ویدئو با صدای سفارشی، ابزارهای تبدیل متن و عکس به ویدئو، ابزارهای تبدیل عکس به کارتون و ابزارهای ساخت تبلیغات و تیزر و مجری مجازی، ابزارهای شبیه سازی صدا و ابزارهای ساخت موسیقی.
طبق گزارش مؤسسه تحقیقاتی گارتنر (2023)*، بازار جهانی هوش مصنوعی مولد در سال 2022 حدود 11.3 میلیارد دلار ارزش‌گذاری شده است و پیش‌بینی می‌شود تا سال 2028 با نرخ رشد سالانه 34.6% به بیش از 118 میلیارد دلار برسد. همچنین، مطالعه‌ای از Statista نشان می‌دهد که 47% از شرکت‌ها در سال 2023 از هوش مصنوعی مولد برای تولید محتوا استفاده کرده‌اند.
همچنین بر اساس مطالعه‌ای که توسط مرکز اخلاق هوش مصنوعی در دانشگاه کمبریج در سال 2022 انجام شد، 73% کاربران چت‌بات‌ها معتقد بودند این ابزارها نسبت به موتورهای جستجو پاسخ‌های اخلاقی‌تر ارائه می‌دهند.
دانشگاه MIT در مطالعه‌ای بر روی 20 مدل هوش مصنوعی مولد نشان داد که این ابزارها در 87% موارد از ارائه پاسخ‌های دارای سوگیری نژادی، جنسیتی و مذهبی خودداری کردند. این تحقیق تأکید کرد که مدل‌هایی با نظارت شدیدتر، مانند ChatGPT و جمینای، عملکرد بهتری در حذف محتواهای حساس داشتند.
مطالعه‌ای در دانشگاه آکسفورد نشان داد که هوش مصنوعی مولد در 92% موارد از تولید اخبار جعلی یا شایعات خودداری کرده است. این پژوهش به‌ویژه از عملکرد ChatGPT به دلیل فیلترهای پیشرفته‌اش تقدیر کرد. با این حال، در 8% موارد ابزارها نتوانستند از تولید محتوای مشکوک جلوگیری کنند که این امر نیاز به بهبود بیشتر را نشان می‌دهد.
اتحادیه اروپا در گزارش سالانه خود اشاره کرد که 78% از ابزارهای هوش مصنوعی مولد در مدیریت داده‌های کاربران شفاف عمل کرده‌اند. این مطالعه همچنین تأکید کرد که برخی مدل‌ها مانند Claude به دلیل عدم توضیح کافی درباره نحوه ذخیره داده‌ها، نیاز به تنظیمات دقیق‌تر دارند.
مؤسسه مک‌کینزی نیز مطالعه‌ای بر روی کاربرد هوش مصنوعی مولد در شرکت‌های بزرگ انجام داد. نتایج نشان داد که 89% مدیران ارشد این ابزارها را نسبت به فناوری‌های پیشین اخلاقی‌تر می‌دانند. همچنین، تأکید شد که چالش‌هایی مانند دستکاری اطلاعات در حوزه‌هایی خاص هنوز وجود دارد. این مطالعه نشان داد که 85% ابزارهای هوش مصنوعی مولد از تولید محتوای دارای تعصب فرهنگی یا قومیتی خودداری کردند. در مقابل، مدل‌هایی که با داده‌های غیرمتمرکز آموزش دیده بودند، بیشتر در معرض تولید چنین محتواهایی قرار داشتند.
مطالعه‌ای در دانشگاه سیدنی نیز نشان داد که هوش مصنوعی مولد در 90% موارد از تولید محتوای توهین‌آمیز یا تحریک‌آمیز خودداری کرده است. این پژوهش توصیه کرد که توسعه‌دهندگان با بهبود آموزش مدل‌ها در زمینه درک احساسات انسانی، عملکرد اخلاقی ابزارها را ارتقا دهند. این نتایج نشان می‌دهد که هوش مصنوعی مولد در بسیاری از موارد از اصول اخلاقی پیروی می‌کند، اما همچنان جای پیشرفت دارد.
نویسنده، در پژوهشی که نتایج آن در کنفرانس اخلاق دیجیتال در دانشگاه تهران در سال 1402 ارایه شد، اقدام به بررسی شاخص های اخلاقی در هوش مصنوعی مولد با پرامپت هایی به زبان فارسی کرد. مسأله اصلی این تحقیق این بود که چت بات های هوش مصنوعی مولد تا چه حد شاخص های اخلاقی را در نتایج یافته ها و پاسخ های خود رعایت می کنند؟
واقعیت این است که ابزارهای هوش مصنوعی مولد، فرصت ها و مزیت های متعددی برای تولید محتوای سالم فراهم کرده اند که از جمله می توان به این موارد اشاره کرد : توسعه تولید محتوا، آسان شدن دسترسی به محتوا، رشد خلاقیت و نوآوری، ایجاد مشاغل جدید، کاربردهای آموزشی، کاربردهای تفریحی و سرگرمی، کاربردهای ترویجی.
اما این ابزارها ، خطرات و تهدیداتی هم به همراه داشته اند که از جمله می توان به این موارد اشاره کرد: توسعه فیک نیوز و دیپ فیک، از بین رفتن مشاغل (روزنامه نگاری، روابط عمومی، طراحان، وکلا، معلمان، پزشکان، برنامه نویسان)، نیاز به فراگیری مهارتهای جدید، رشد کلاهبرداری و جرایم، نقض حریم خصوصی و مالکیت معنوی، ابزارهای سوءاستفاده هکرها، گمراه کردن عمومی، تغییر در رفتار اجتماعی، تاثیر منفی بر آموزش و ادبیات.
با این حال به نظر می رسد بخشی از فناوری های هوش مصنوعی مولد از جمله چت باتها در مقایسه با موتورهای جستجوی اینترنتی، پاسخ ها و یافته های سالم تری به لحاظ اخلاقی به کاربران ارایه می دهند.
روش تحقیق در این پژوهش، روش تحلیل محتوای کیفی بود. تحلیل محتوای کیفی فرآیندی است برای جمع آوری، ساختاردهی و تفسیر داده های کیفی برای درک آنچه نشان دهنده آن است. داده های کیفی غیر عددی و بدون ساختار هستند. تحلیل محتوای کیفی دارای پنج مرحله اساسی است که عبارتند از: 1. جمع آوری داده های کیفی، 2. سازماندهی و اتصال به داده های کیفی، 3. کدگذاری داده های کیفی، 4. تجزیه و تحلیل داده های کیفی برای بینش، 5. گزارش در مورد بینش های به دست آمده از تحلیل داده ها.
برای بررسی این فرضیه محقق 3 چت بات مشهور و اصلی هوش مصنوعی مولد را مورد آزمایش قرار داد. این سه چت بات عبارت بودند از : چت جی پی تی، جمینای، کلود.
محقق برای تست وضعیت پاسخگویی این سه چت بات به سؤالاتی با موضوعات حساس اخلاقی، 10 موضوع مهم اخلاقی را با محورهای زیر تعریف کرده و برای هر یک پرامپت هایی خاص و یکسان نوشته و به این چت باتها داد. این 10 موضوع عبارت بودند از : اقوام، تبعیض نژادی، توهین فردی، خشونت، پورنوگرافی، تصاویر غیر اخلاقی، اخبار جعلی و جعل عمیق، حریم خصوصی، تروریسم، آزارگری.
پرامپت نویسی یکی از مهارت های مهم در زمینه هوش مصنوعی است. پرامپت ها به عنوان دستوراتی هستند که به هوش مصنوعی ارسال می شوند تا خروجی مورد نظر را تولید کند. پرامپت نویسی یک فرآیند پیچیده است که نیاز به دانش و مهارت در زمینه های مختلف از جمله زبان طبیعی، پردازش زبان طبیعی، هوش مصنوعی و طراحی تجربه کاربر دارد. پرامپت هایی که محقق به این چت باتها ارایه داد جملات و درخواست هایی برای تولید محتوای ممنوعه و غیر اخلاقی در هر یک از شاخص های مورد نظر بود .
پاسخ چت بات چت جی پی تی به همه این 10 سال منفی بود وجه مشترک همه پاسخ ها این بود که : ببخشید، اما من نمی توانم به درخواست شما پاسخ دهم. من یک همراه هوشمند هستم که برای ارائه اطلاعات و پاسخ به سوالات طراحی شده ام. لطفا از من در مورد موضوعات مناسب تری بپرسید.
پاسخ چت بات جمینای گوگل به 8 سوال از 10 سوال منفی بود وجه مشترک این 8 پاسخ این بود که: من فقط برای پردازش و ایجاد نوشتار طراحی شده ام، درنتیجه نمی توانم در این مورد به شما کمک کنم. اما جیمنی به دو سوال در مورد جوک قومیتی و مقایسه ملت های ایران و آلمان پاسخ داد. پاسخ چت بات کلود آنتروپیک به 9 سوال از 10 سوال منفی بود وجه مشترک این 9 سوال این بود که : متاسفم، این کار اخلاقی و قانونی نیست. من نمی توانم این اطلاعات را به اشتراک بگذارم. اما کلود به سوالی در مورد مقایسه ملت های ایران و آلمان پاسخ داد. در ادامه جدول نتایج پرامپت های غیر اخلاقی سه چت بات هوش مصنوعی مولد به تفکیک پاسخ های ارایه شده درج می شود. نتایج این پژوهش حاکی از این است که استفاده از هوش مصنوعی مولد با چالش های اخلاقی خاصی همراه است. این چالش ها شامل موارد زیر هستند: تأثیر بر محتوای خلاقانه، احتمال سوء استفاده از هوش مصنوعی مولد برای تولید محتوای مضر، عدم شفافیت در عملکرد. برخی از راههای مقابله با این چالشهای اخلاقی شامل موارد زیر هستند:توسعه استانداردهای اخلاقی برای استفاده از هوش مصنوعی ، آموزش کاربران در مورد استفاده مسئولانه از هوش مصنوعی مولد ، تحقیق در زمینه هوش مصنوعی . برای کاهش این چالشها، توسعه استانداردهای اخلاقی، آموزش کاربران و تحقیق در زمینه هوش مصنوعی مولد ضروری است.
بر این مبنا، می توان نتیجه گرفت که از میان 3 چت بات هوش مصنوعی مولد مشهور دنیا، چت جی پی تی و کلود از نظر رعایت استانداردهای اخلاقی، منزه تر بوده و چت بات جمینای نیز در رتبه سوم قرار می گیرد. با این حال هر سه چت بات از نظر سقف امتیاز، نمره قبولی در این مورد می گیرند چرا که به ترتیب چت جی پی تی ، نمره 10 از 10؛ جمینای 8 از 10 و کلود 9 از 10 را کسب کرده اند.
تلاش محقق برای تولید تصاویر نامناسب، راهنمایی برای دزدی از بانک و مسائلی از این دست، با کوپایلوت، میدجرنی و چت جی پی تی نیز حاصلی در بر نداشت و اغلب این سامانه بعد از درخواست های غیر اخلاقی کاربر، باکس محاوره و جستجو را بسته و این بحث را خاتمه می دهند. این در حالی است که کاربر با جستجوی همین عبارت ها و پرامپت ها در موتورهای جستجوی گوگل و بینگ، به صدها و هزاران یافته دست پیدا می کند. نتیجه ای که می توان گرفت این است که در هسته مرکزی الگوریتم این چت باتها، ممنوعیت ها و محدودیت هایی گنجانده شده و با این که آن ها همه اطلاعات وب را در اختیار دارند از تولید محتوای نامناسب برای کاربر اجتناب می کنند. نتایج این تحقیق، با پژوهش های بین المللی در زمینه اخلاق هوش مصنوعی تطبیق دارد، با این حال فناوری های هوش مصنوعی هنوز نیاز به توسعه و تقویت دارند.

نویسنده
سحر شمخانی
مطالب مرتبط
  • نظراتی که حاوی حرف های رکیک و افترا باشد به هیچ عنوان پذیرفته نمیشوند
  • حتما با کیبورد فارسی اقدام به ارسال دیدگاه کنید فینگلیش به هیچ هنوان پذیرفته نمیشوند
  • ادب و احترام را در برخورد با دیگران رعایت فرمایید.
نظرات

دیدگاهتان را بنویسید!

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *