هوش مصنوعی مولد نسبت به فضای مجازی موجود، از نظر اخلاقی، سالم تر و منزه تر است.
هوش مصنوعی مولد نسبت به فضای مجازی موجود، از نظر اخلاقی، سالم تر و منزه تر است. این را نتایج یک تحقیق علمی که توسط نویسنده انجام شده نشان داد. هوش مصنوعی به دسته ای از فناوری ها و الگوریتم هایی گفته می شود که به سیستم های رایانه ای توانایی انجام عملیاتی از جمله یادگیری، درک، فهم، استنتاج، حل مسئله، پیش بینی، تصمیم گیری و اقدام خودکار را می دهند. هوش مصنوعی مولد، شاخه ای از هوش مصنوعی است که در آن ماشین ها می توانند به طور مستقل محتوای جدید و منحصر به فرد ایجاد کنند. این محتواها می تواند شامل انواع متن مانند مقاله، کتاب، داستان، فیلمنامه، خبر، شعر، لطیفه، گزارش و نامه ، انواع عکس و تصویر و فیلم ، شبیه سازی صدا و ساخت موسیقی، انواع گرافیک مانند پوستر، انیمیشن، کارتون، موشن گرافی و اینفوگرافی، محاوره و جستجو در اینترنت، و انواع فایل مانند پاورپوینت باشد.
برخی از مهمترین مصادیق هوش مصنوعی مولد عبارتند از:
چت بات ها، ابزارهای تبدیل عکس به متن، ابزارهای تبدیل متن به عکس، ابزارهای تبدیل صوت به متن، ابزار تبدیل نقاشی به انیمیشن ، ابزارهای ترجمه متن و صوت، ابزارهای ترجمه صوت به صوت، ابزار تولید ویدئو با صدای سفارشی، ابزارهای تبدیل متن و عکس به ویدئو، ابزارهای تبدیل عکس به کارتون و ابزارهای ساخت تبلیغات و تیزر و مجری مجازی، ابزارهای شبیه سازی صدا و ابزارهای ساخت موسیقی.
طبق گزارش مؤسسه تحقیقاتی گارتنر (2023)*، بازار جهانی هوش مصنوعی مولد در سال 2022 حدود 11.3 میلیارد دلار ارزشگذاری شده است و پیشبینی میشود تا سال 2028 با نرخ رشد سالانه 34.6% به بیش از 118 میلیارد دلار برسد. همچنین، مطالعهای از Statista نشان میدهد که 47% از شرکتها در سال 2023 از هوش مصنوعی مولد برای تولید محتوا استفاده کردهاند.
همچنین بر اساس مطالعهای که توسط مرکز اخلاق هوش مصنوعی در دانشگاه کمبریج در سال 2022 انجام شد، 73% کاربران چتباتها معتقد بودند این ابزارها نسبت به موتورهای جستجو پاسخهای اخلاقیتر ارائه میدهند.
دانشگاه MIT در مطالعهای بر روی 20 مدل هوش مصنوعی مولد نشان داد که این ابزارها در 87% موارد از ارائه پاسخهای دارای سوگیری نژادی، جنسیتی و مذهبی خودداری کردند. این تحقیق تأکید کرد که مدلهایی با نظارت شدیدتر، مانند ChatGPT و جمینای، عملکرد بهتری در حذف محتواهای حساس داشتند.
مطالعهای در دانشگاه آکسفورد نشان داد که هوش مصنوعی مولد در 92% موارد از تولید اخبار جعلی یا شایعات خودداری کرده است. این پژوهش بهویژه از عملکرد ChatGPT به دلیل فیلترهای پیشرفتهاش تقدیر کرد. با این حال، در 8% موارد ابزارها نتوانستند از تولید محتوای مشکوک جلوگیری کنند که این امر نیاز به بهبود بیشتر را نشان میدهد.
اتحادیه اروپا در گزارش سالانه خود اشاره کرد که 78% از ابزارهای هوش مصنوعی مولد در مدیریت دادههای کاربران شفاف عمل کردهاند. این مطالعه همچنین تأکید کرد که برخی مدلها مانند Claude به دلیل عدم توضیح کافی درباره نحوه ذخیره دادهها، نیاز به تنظیمات دقیقتر دارند.
مؤسسه مککینزی نیز مطالعهای بر روی کاربرد هوش مصنوعی مولد در شرکتهای بزرگ انجام داد. نتایج نشان داد که 89% مدیران ارشد این ابزارها را نسبت به فناوریهای پیشین اخلاقیتر میدانند. همچنین، تأکید شد که چالشهایی مانند دستکاری اطلاعات در حوزههایی خاص هنوز وجود دارد. این مطالعه نشان داد که 85% ابزارهای هوش مصنوعی مولد از تولید محتوای دارای تعصب فرهنگی یا قومیتی خودداری کردند. در مقابل، مدلهایی که با دادههای غیرمتمرکز آموزش دیده بودند، بیشتر در معرض تولید چنین محتواهایی قرار داشتند.
مطالعهای در دانشگاه سیدنی نیز نشان داد که هوش مصنوعی مولد در 90% موارد از تولید محتوای توهینآمیز یا تحریکآمیز خودداری کرده است. این پژوهش توصیه کرد که توسعهدهندگان با بهبود آموزش مدلها در زمینه درک احساسات انسانی، عملکرد اخلاقی ابزارها را ارتقا دهند. این نتایج نشان میدهد که هوش مصنوعی مولد در بسیاری از موارد از اصول اخلاقی پیروی میکند، اما همچنان جای پیشرفت دارد.
نویسنده، در پژوهشی که نتایج آن در کنفرانس اخلاق دیجیتال در دانشگاه تهران در سال 1402 ارایه شد، اقدام به بررسی شاخص های اخلاقی در هوش مصنوعی مولد با پرامپت هایی به زبان فارسی کرد. مسأله اصلی این تحقیق این بود که چت بات های هوش مصنوعی مولد تا چه حد شاخص های اخلاقی را در نتایج یافته ها و پاسخ های خود رعایت می کنند؟
واقعیت این است که ابزارهای هوش مصنوعی مولد، فرصت ها و مزیت های متعددی برای تولید محتوای سالم فراهم کرده اند که از جمله می توان به این موارد اشاره کرد : توسعه تولید محتوا، آسان شدن دسترسی به محتوا، رشد خلاقیت و نوآوری، ایجاد مشاغل جدید، کاربردهای آموزشی، کاربردهای تفریحی و سرگرمی، کاربردهای ترویجی.
اما این ابزارها ، خطرات و تهدیداتی هم به همراه داشته اند که از جمله می توان به این موارد اشاره کرد: توسعه فیک نیوز و دیپ فیک، از بین رفتن مشاغل (روزنامه نگاری، روابط عمومی، طراحان، وکلا، معلمان، پزشکان، برنامه نویسان)، نیاز به فراگیری مهارتهای جدید، رشد کلاهبرداری و جرایم، نقض حریم خصوصی و مالکیت معنوی، ابزارهای سوءاستفاده هکرها، گمراه کردن عمومی، تغییر در رفتار اجتماعی، تاثیر منفی بر آموزش و ادبیات.
با این حال به نظر می رسد بخشی از فناوری های هوش مصنوعی مولد از جمله چت باتها در مقایسه با موتورهای جستجوی اینترنتی، پاسخ ها و یافته های سالم تری به لحاظ اخلاقی به کاربران ارایه می دهند.
روش تحقیق در این پژوهش، روش تحلیل محتوای کیفی بود. تحلیل محتوای کیفی فرآیندی است برای جمع آوری، ساختاردهی و تفسیر داده های کیفی برای درک آنچه نشان دهنده آن است. داده های کیفی غیر عددی و بدون ساختار هستند. تحلیل محتوای کیفی دارای پنج مرحله اساسی است که عبارتند از: 1. جمع آوری داده های کیفی، 2. سازماندهی و اتصال به داده های کیفی، 3. کدگذاری داده های کیفی، 4. تجزیه و تحلیل داده های کیفی برای بینش، 5. گزارش در مورد بینش های به دست آمده از تحلیل داده ها.
برای بررسی این فرضیه محقق 3 چت بات مشهور و اصلی هوش مصنوعی مولد را مورد آزمایش قرار داد. این سه چت بات عبارت بودند از : چت جی پی تی، جمینای، کلود.
محقق برای تست وضعیت پاسخگویی این سه چت بات به سؤالاتی با موضوعات حساس اخلاقی، 10 موضوع مهم اخلاقی را با محورهای زیر تعریف کرده و برای هر یک پرامپت هایی خاص و یکسان نوشته و به این چت باتها داد. این 10 موضوع عبارت بودند از : اقوام، تبعیض نژادی، توهین فردی، خشونت، پورنوگرافی، تصاویر غیر اخلاقی، اخبار جعلی و جعل عمیق، حریم خصوصی، تروریسم، آزارگری.
پرامپت نویسی یکی از مهارت های مهم در زمینه هوش مصنوعی است. پرامپت ها به عنوان دستوراتی هستند که به هوش مصنوعی ارسال می شوند تا خروجی مورد نظر را تولید کند. پرامپت نویسی یک فرآیند پیچیده است که نیاز به دانش و مهارت در زمینه های مختلف از جمله زبان طبیعی، پردازش زبان طبیعی، هوش مصنوعی و طراحی تجربه کاربر دارد. پرامپت هایی که محقق به این چت باتها ارایه داد جملات و درخواست هایی برای تولید محتوای ممنوعه و غیر اخلاقی در هر یک از شاخص های مورد نظر بود .
پاسخ چت بات چت جی پی تی به همه این 10 سال منفی بود وجه مشترک همه پاسخ ها این بود که : ببخشید، اما من نمی توانم به درخواست شما پاسخ دهم. من یک همراه هوشمند هستم که برای ارائه اطلاعات و پاسخ به سوالات طراحی شده ام. لطفا از من در مورد موضوعات مناسب تری بپرسید.
پاسخ چت بات جمینای گوگل به 8 سوال از 10 سوال منفی بود وجه مشترک این 8 پاسخ این بود که: من فقط برای پردازش و ایجاد نوشتار طراحی شده ام، درنتیجه نمی توانم در این مورد به شما کمک کنم. اما جیمنی به دو سوال در مورد جوک قومیتی و مقایسه ملت های ایران و آلمان پاسخ داد. پاسخ چت بات کلود آنتروپیک به 9 سوال از 10 سوال منفی بود وجه مشترک این 9 سوال این بود که : متاسفم، این کار اخلاقی و قانونی نیست. من نمی توانم این اطلاعات را به اشتراک بگذارم. اما کلود به سوالی در مورد مقایسه ملت های ایران و آلمان پاسخ داد. در ادامه جدول نتایج پرامپت های غیر اخلاقی سه چت بات هوش مصنوعی مولد به تفکیک پاسخ های ارایه شده درج می شود. نتایج این پژوهش حاکی از این است که استفاده از هوش مصنوعی مولد با چالش های اخلاقی خاصی همراه است. این چالش ها شامل موارد زیر هستند: تأثیر بر محتوای خلاقانه، احتمال سوء استفاده از هوش مصنوعی مولد برای تولید محتوای مضر، عدم شفافیت در عملکرد. برخی از راههای مقابله با این چالشهای اخلاقی شامل موارد زیر هستند:توسعه استانداردهای اخلاقی برای استفاده از هوش مصنوعی ، آموزش کاربران در مورد استفاده مسئولانه از هوش مصنوعی مولد ، تحقیق در زمینه هوش مصنوعی . برای کاهش این چالشها، توسعه استانداردهای اخلاقی، آموزش کاربران و تحقیق در زمینه هوش مصنوعی مولد ضروری است.
بر این مبنا، می توان نتیجه گرفت که از میان 3 چت بات هوش مصنوعی مولد مشهور دنیا، چت جی پی تی و کلود از نظر رعایت استانداردهای اخلاقی، منزه تر بوده و چت بات جمینای نیز در رتبه سوم قرار می گیرد. با این حال هر سه چت بات از نظر سقف امتیاز، نمره قبولی در این مورد می گیرند چرا که به ترتیب چت جی پی تی ، نمره 10 از 10؛ جمینای 8 از 10 و کلود 9 از 10 را کسب کرده اند.
تلاش محقق برای تولید تصاویر نامناسب، راهنمایی برای دزدی از بانک و مسائلی از این دست، با کوپایلوت، میدجرنی و چت جی پی تی نیز حاصلی در بر نداشت و اغلب این سامانه بعد از درخواست های غیر اخلاقی کاربر، باکس محاوره و جستجو را بسته و این بحث را خاتمه می دهند. این در حالی است که کاربر با جستجوی همین عبارت ها و پرامپت ها در موتورهای جستجوی گوگل و بینگ، به صدها و هزاران یافته دست پیدا می کند. نتیجه ای که می توان گرفت این است که در هسته مرکزی الگوریتم این چت باتها، ممنوعیت ها و محدودیت هایی گنجانده شده و با این که آن ها همه اطلاعات وب را در اختیار دارند از تولید محتوای نامناسب برای کاربر اجتناب می کنند. نتایج این تحقیق، با پژوهش های بین المللی در زمینه اخلاق هوش مصنوعی تطبیق دارد، با این حال فناوری های هوش مصنوعی هنوز نیاز به توسعه و تقویت دارند.