Web Analytics Made Easy - Statcounter

سیزدهمین جشنواره کارآفرینان برتر ملی با حضور اسحاق جهانگیری، معاون اول رییس جمهور و محمد شریعتمداری، وزیر کار، ۲۹ بهمن برگزار شد. در این دوره از جشنواره برای اولین بار یک شرکت کارآفرین در حوزه بازار سرمایه توانست به جایگاه برتر را به دست آورد. خبرگزاری میزان _   سیزدهمین جشنوارۀ کارآفرینان برتر، شرکت پردازش اطلاعات مالی پارت را به‌عنوان کارآفرین برتر ملی سال انتخاب کرد.

بیشتر بخوانید: اخباری که در وبسایت منتشر نمی‌شوند!

نخستین بار است که شرکتی فعال در حوزۀ بازار سرمایه توانسته این جایگاه را از آن خود کند. در این مراسم که چهارشنبه ۲۹ بهمن‌ماه با حضور معاون اول رئیس جمهور و وزیر کار، تعاون و رفاه اجتماعی در مجموعه تلاش تهران برگزار شد، تندیس کارآفرین برتر ملی به دکتر علی رسولی‌زاده مدیرعامل شرکت دانش‌بنیان پارت اعطا شد.   علی رسولی‌زاده، مدیرعامل شرکت پارت، در این باره گفت: در حال حاضر، پارت ۷۰۰ نفر سرمایۀ انسانی با متوسط سن ۲۸ سال دارد که در استان‌های مختلف کشور مشغول به کار هستند. حوزه‌های هوش مصنوعی، فنّاوری اطلاعات و مالی که پارت در نقطۀ اشتراک آن‌ها فعالیت می‌کند، از جمله قلمرو‌های علمی پیشرو کشور است که هر روز زمینه‌های کاری بسیار جذابی از آن سوی مرز‌ها به نیرو‌های ما پیشنهاد می‌شود. یکی از افتخارات بزرگ پارت این بوده که فضایی برای جوانان نخبه و متخصص کشور فراهم کند که در کشور خود بمانند و فعالیت‌های بزرگی برای مردم خودشان انجام بدهند.   وی افزود: پارت می‌کوشد دستیار هوشمند اقتصادی مردم باشد. به صورتی که هم دسترسی مردم به خدمات مالی، آسان‌تر و بهتر باشد و هم آگاهی و شناخت آن‌ها برای تصمیم‌های بهتر اقتصادی افزایش یابد. این هدف با ایجاد سامانه‌های مختلف پیگیری می‌شود.   این کارآفرین برتر ملی، ضمن اشاره به عنوان برخی از سامانه‌های طراحی‌شده پارت، گفت: سامانه‌هایی مانند سیگنال، فراشناسا، رسام، سپام، ثبت‌یار، سهاب، شهاب و ...، تاکنون ۶ میلیون کاربر یکتا داشته‌اند. ارائۀ خدمت به این تعداد از افراد جامعه برای یک شرکت دانش‌بنیان کوچک مثل ما، بسیار ارزشمند است. این میزان از خدمت‌دهی در کنار نوآوری‌های انجام‌شده، باعث شد پارت، کارآفرین برتر ملی شود. رسیدن به این موفقیت برای پارت هم یک افتخار بزرگ است و هم مسئولیت ما را مضاعف می‌کند تا با کار و تلاش بیشتر و حضور در عرصه‌های جهانی به مسیر خود ادامه دهیم.   رسولی‌زاده افزود: پارت سراغ خلأ‌هایی رفت که قدرت اهرمی داشتند و پُرکردن آن‌ها می‌توانست حوزه‌های متعددی را به حرکت وا دارد. یکی از این موارد حوزۀ احراز هویت بود. امروزه در بخش عمده‌ای از خدمات مالی و حقوقی باید هویت فرد دریافت‌کنندۀ خدمت تأیید شود. از دریافت کد سجام و ورود به بازار سرمایه گرفته تا خدمات حقوقی و حتی حضور در مجامع شرکت‌ها یا امتحانات به احراز هویت نیاز داریم.   مدیرعامل شرکت پارت گفت: شرکت پارت با استفاده از زیرساخت هوش مصنوعی خود تا این لحظه ۳.۵ میلیون نفر را با استفاده از سامانۀ فراشناسای پارت احراز هویت کرده است. این سامانه به‌ویژه در دوران همه‌گیری کرونا بسیار کارآمد بود و کمک کرد مردم بدون اینکه نیاز باشد از خانۀ خود خارج شوند و در معرض بیماری قرار بگیرند، در عرض چند دقیقه احراز هویت شوند.   دکتر علی رسولی‌زاده ضمن معرفی مرآت به‌عنوان یکی دیگر از این سامانه‌های زیرساختی، گفت: این سامانه خدمتی به نام اعتبارسنجی افراد حقیقی ارائه می‌دهد. اعتبارسنجی، فرایندی است که بانک‌ها به کار می‌گیرند تا میزان خوش‌حسابی مشتریان خود را بسنجند. میزان تسهیلات و اقساطی که به آن‌ها پرداخت می‌شود بر اساس همین اعتبارسنجی است. تاکنون بیش از ۲.۵ میلیون نفر از مشتریان با کمک این سامانه اعتبارسنجی شده‌اند و در مجموع، تسهیلاتی بالغ بر ۳۰ هزار میلیارد تومان به مشتریان اعطا شده است. به‌زودی، خدمات این سامانه گسترش خواهد یافت و در اختیار نهاد‌های گوناگون قرار می‌گیرد تا گروه‌های بیشتری از مردم بتوانند از مزایای اعتبارسنجی بهره‌مند شوند.   مدیرعامل شرکت دانش‌بنیان پارت گفت: یکی دیگر از این سامانه‌ها، سامانۀ «سهاب» است. سهاب بازاری است که سرویس‌های هوش مصنوعی را در قالب چهار فنّاوری پردازش زبان طبیعی، پردازش گفتار، داده‌کاوی و بینایی ماشین ارائه می‌دهد. «شهاب» نیز یکی دیگر از این سامانه‌های زیرساختی است. شهاب، سخت‌افزار لازم برای ارائۀ سرویس‌های هوش مصنوعی در حجم انبوه و مبتنی بر ابر را ارائه می‌دهد. این کارآفرین برتر ملی، با اشاره به همکاری‌های گسترده پارت با نهاد‌های مختلف گفت: پارت دانش‌بنیان با معاونت علمی و فنّاوری ریاست جمهوری، دانشگاه‌های مختلف کشور به‌خصوص دانشگاه تهران و دانشگاه‌های مشهد در حوزه‌های مختلف قرارداد همکاری دارد. با همین رویکرد، پارت، کالج‌های آموزشی مختلفی برای آموزش دانشجویان نخبۀ کشور راه‌اندازی کرده است. چرا که رشد و توسعۀ هوش مصنوعی در کشور و تبدیل‌شدن ایران به قطب هوش مصنوعی منطقه و جهان، نیازمند پرورش سرمایه‌های انسانی فراوان است.   «کالج پارت» در حوزه فنّاوری اطلاعات و «کالج هوش مصنوعی پارت» با برگزاری دوره‌های آموزشی متنوع و حمایت از رویداد‌ها و کنفرانس‌های معتبر نرم‌افزاری کشور، به جذب و آموزش نیرو‌های متخصص می‌پردازند. علاوه بر این، پیرو قرارداد همکاری پارت با دانشکدۀ برق و کامپیوتر دانشگاه تهران، پروژه‌های مشترک پژوهشی، آموزشی و عملیاتی مختلفی در همین راستا آغاز شده است.   دکتر رسولی‌زاده در بخش دیگری از سخنان خود گفت: مؤلفه‌های سنجش سواد مالی در جهان نشان می‌دهد که سطح سواد مالی مردم کشور رضایت‌بخش نیست، در حالی که همۀ ما با مسائل بسیاری در حوزۀ مالی دست به گریبانیم. از همین رو، پارت، فعالیت‌های گسترده‌ای را در این حوزه آغاز کرده است که به‌مرور شاهد نتایج آن خواهیم بود. در گام نخست، آکادمی هوش مالی، منابع آموزش روز دنیا را شناسایی، بررسی، رتبه‌بندی و تهیه کرده است و در گام دوم، منابع آموزشی بومی در حال تدوین و آماده‌سازی است. حاصل این تلاش‌ها تاکنون انتشار ۶۰ عنوان کتاب است که به‌زودی تعداد آن‌ها به بیش از ۱۰۰ عنوان خواهد رسید. در حوزۀ آموزش سواد مالی، ارائۀ آموزش‌ها از طریق حرفه‌ای‌ترین نهاد‌های آموزشی کشور و به‌صورت گسترده مدنظر بوده است.   به همین دلیل، دوره‌های آموزشی سواد مالی برای بزرگ‌سالان از طریق واحد الکترونیک دانشگاه آزاد و دوره‌های ترمیک دانشگاهی از طریق دانشگاه تهران ارائه می‌شود. در حوزۀ سنجش سواد مالی نیز کار‌های گسترده‌ای انجام شده است که به‌مرور از طریق سامانۀ سیگنال بخش‌هایی از آن عرضه خواهد شد. در حوزۀ ترویج سواد مالی میان گروه‌های مرجع، رسانه‌ها و مخاطبان نیز برنامه‌های متنوعی اجرا شده است که برگزاری جشنوارۀ نشان «فی» (ارزیابی فیلم‌های سینمایی سی‌و‌هشتمین و سی‌ونهمین جشنوارۀ فیلم فجر با عینک سواد مالی)، آموزش و ترویج سواد مالی در برنامه‌های مختلف صدا و سیما برخی از این‌ها بوده است. بیشتر بخوانید: برگزاری دومین کنفرانس بین‌المللی مدیریت دانش، بلاکچین و اقتصاد انتهای پیام/
خبرگزاری میزان: انتشار مطالب و اخبار تحلیلی سایر رسانه‌های داخلی و خارجی لزوماً به معنای تایید محتوای آن نیست و صرفاً جهت اطلاع کاربران از فضای رسانه‌ای منتشر می‌شود.   برچسب ها: دانش بنیان هوش مصنوعی

منبع: خبرگزاری میزان

کلیدواژه: دانش بنیان هوش مصنوعی کارآفرین برتر ملی مدیرعامل شرکت رسولی زاده هوش مصنوعی دانش بنیان احراز هویت سامانه ها سواد مالی فن اوری

درخواست حذف خبر:

«خبربان» یک خبرخوان هوشمند و خودکار است و این خبر را به‌طور اتوماتیک از وبسایت www.mizan.news دریافت کرده‌است، لذا منبع این خبر، وبسایت «خبرگزاری میزان» بوده و سایت «خبربان» مسئولیتی در قبال محتوای آن ندارد. چنانچه درخواست حذف این خبر را دارید، کد ۳۱۰۸۸۰۹۶ را به همراه موضوع به شماره ۱۰۰۰۱۵۷۰ پیامک فرمایید. لطفاً در صورتی‌که در مورد این خبر، نظر یا سئوالی دارید، با منبع خبر (اینجا) ارتباط برقرار نمایید.

با استناد به ماده ۷۴ قانون تجارت الکترونیک مصوب ۱۳۸۲/۱۰/۱۷ مجلس شورای اسلامی و با عنایت به اینکه سایت «خبربان» مصداق بستر مبادلات الکترونیکی متنی، صوتی و تصویر است، مسئولیت نقض حقوق تصریح شده مولفان در قانون فوق از قبیل تکثیر، اجرا و توزیع و یا هر گونه محتوی خلاف قوانین کشور ایران بر عهده منبع خبر و کاربران است.

خبر بعدی:

چرا ارتش‌ها نمی‌تواند به هوش مصنوعی اعتماد کند؟

فرارو- ژاکلین اشنایدر؛ پژوهشگر موسسه هوور در دانشگاه استنفورد است. او در موسسه هوور مدیر ابتکار عمل بازی و شبیه سازی بحران است.او یکی از افراد وابسته به مرکز امنیت و همکاری بین‌المللی استنفورد است.تحقیقات اشنایدر بر حوزه تلاقی فناوری، امنیت ملی و روانشناسی سیاسی با علاقه ویژه نسبت به امنیت سایبری، فناوری‌های خودمختار، مانور‌های نظامی و شمال شرق آسیا متمرکز بوده است. اشنایدر در سال ۲۰۲۰ میلادی برنده جایزه پژوهشگران نوظهور پری ورلد هاوس شد.

به گزارش فرارو به نقل از فارن افرز، شرکت Open AI  در سال ۲۰۲۲ میلادی از چت بات Chat GPT رونمایی کرد که از مدل‌های زبانی بزرگ یا به اختصار LLMs برای تقلید از مکالمات انسانی و پاسخ به پرسش‌های کاربران استفاده می‌کند. توانایی‌های خارق العاده آن چت بات بحثی را در مورد نحوه استفاده از مدل‌های زبانی بزرگ برای انجام کار‌های دیگری از جمله جنگیدن در یک جنگ برانگیخت. برخی مانند مشاوران کمیته بین المللی صلیب سرخ هشدار داده اند که این قبیل فناوری‌ها می‌توانند تصمیم گیری انسانی را از حیاتی‌ترین مسائل زندگی و مرگ حذف کنند.

وزارت دفاع ایالات متحده اکنون به طور جدی در حال بررسی کار‌هایی است که مئل‌های زبانی بزرگ می‌توانند برای ارتش انجام دهند. وزارت دفاع آمریکا در بهار ۲۰۲۲ میلادی دفتر اصلی هوش مصنوعی و دیجیتال را تأسیس کرد تا بررسی نماید که هوش مصنوعی چگونه می‌تواند به نیرو‌های مسلح کمک کند.

وزارت دفاع استراتژی خود را برای پذیرش فناوری‌های مبتنی بر هوش مصنوعی در نوامبر ۲۰۲۳ میلادی  منتشر کرد. آن گزارش با نگاهی خوش بینانه اشاره کرده بود که "تازه‌ترین پیشرفت‌ها در فناوری‌های داده، تجزیه و تحلیل و هوش مصنوعی به رهبران این امکان را می‌دهد که  از اتاق هیئت مدیره تا میدان جنگ سریع‌ترین تصمیمات را اتخاذ کنند".

بر این اساس اکنون از فناوری‌های مجهز به هوش مصنوعی استفاده می‌شود. برای مثال، نیرو‌های آمریکایی دارای سیستم‌های مجهز به هوش مصنوعی برای هدف قرار دادن منافع انصارالله در خاورمیانه و شمال آفریقا بوده اند. نیرو‌های تفنگدار دریای ایالات متحده و نیروی هوایی آن کشور در حال آزمایش با مدل‌های زبانی بزرگ هستند و از آن برای مانور‌های جنگی، برنامه ریزی نظامی و وظایف اداری اساسی استفاده می‌کنند. Palantir شرکتی که فناوری اطلاعات را برای وزارت دفاع آمریکا توسعه می‌دهد محصولی ایجاد کرده که از مدل‌های زبانی بزرگ  برای مدیریت عملیات نظامی استفاده می‌کند. در همین حال، وزارت دفاع آمریکا یک کارگروه جدید برای بررسی استفاده از هوش مصنوعی مولد از جمله مدل‌های زبانی بزرگ در ارتش ایالات متحده تشکیل داده است.

با این وجود، علیرغم اشتیاق نسبت به هوش مصنوعی و مدل‌های زبانی بزرگ در پنتاگون رهبری آن نهاد نگران خطراتی است که این فناوری‌ها ایجاد می‌کنند. اخیرا نیروی دریایی ایالات متحده دستورالعملی را منتشر کرده که استفاده از اپلیکیشن‌های مبتنی  بر مدل‌های زبانی بزرگ را محدود کرده چرا که باور دارد این اپلیکیشن‌ها دچار سوگیری و توهم می‌شوند و آسیب پذیری امنیتی را با انتشار ناخواسته اطلاعات حساس افزایش خواهند داد.

نتیجه تحقیقات من و همکاران ام نشان می‌دهند که این نگرانی‌ها موجه هستند. مدل‌های زبانی بزرگ می‌توانند مفید باشند،  اما پیش بینی اقدامات آن مدل‌ها دشوار است و می‌توانند تماس‌های خطرناک را به شکلی تشدید شده افزایش دهند. بنابراین، ارتش باید محدودیت‌هایی را برای این فناوری‌ها زمانی که برای تصمیم گیری‌های پرمخاطره به ویژه در موقعیت‌های جنگی استفاده می‌شود اعمال کند. مدل‌های زبانی بزرگ کاربرد‌های زیادی در وزارت دفاع ایالات متحده دارند، اما برون سپاری انتخاب‌های پرمخاطب به ماشین‌ها تصمیمی خطرناک است.

مشکلات آموزشی

مدل‌های زبانی بزرگ سیستم‌های مبتنی بر هوش مصنوعی هستند  که بر روی مجموعه‌های بزرگی از داده‌ها آموزش دیده اند که براساس آن چه قبلا نوشته شده متن یا یک کلمه در یک زمان تولید می‌کنند.

 این فرآیند دو مرحله می‌باشد. اولین مرحله پیش آموزش است زمانی که مدل‌های زبانی بزرگ از ابتدا آموزش داده می‌شوند و الگو‌های اساسی  موجود در یک مجموعه داده عظیم را بازتولید می‌کنند. برای انجام این کار مدل باید مقدار زیادی در مورد موضوعاتی از جمله گرامر، تداعی‌های واقعی، تجزیه و تحلیل احساسات و ترجمه زبان را بیاموزد. مدل‌های زبانی بزرگ بخش عمده مهارت‌های خود را در طول دوره پیش آموزش توسعه می‌دهند، اما موفقیت آن مدل‌ها به کیفیت، اندازه و تنوع داده‌هایی که مصرف می‌کنند بستگی دارد. به قدری متن مورد نیاز است که عملا غیرممکن می‌باشد که یک مدل زبانی بزرگ صرفا بر اساس داده‌های با کیفیت بالا بررسی شود. این به معنای پذیرش داده‌های با کیفیت پایین نیز می‌باشد. برای نیرو‌های مسلح یک مدل زبانی بزرگ نمی‌تواند تنها بر اساس داده‌های نظامی آموزش ببیند و هنوز هم به اشکال عمومی بیش تری از اطلاعات از جمله دستور العمل ها، رمان‌های عاشقانه، و مبادلات دیجیتالی روزانه که اینترنت را پر می‌کنند نیاز دارد.

با این وجود، پیش آموزش برای ساخت یک چت بات مفید یا یک دستیار فرماندهی و کنترل دفاعی کافی نیست. این بدان خاطر است که در مرحله اول مدل‌های زبانی بزرگ استایل‌ها و کاراکتر‌های مختلف نوشتاری را اتخاذ می‌کنند که همه آن‌ها لزوما برای وظیفه در نظر گرفته شده برای آن مدل مناسب نیستند. مدل‌های زبانی بزرگ پس از پیش آموزش ممکن است فاقد دانش خاص لازم مانند اصطلاحات تخصصی مورد نیاز برای پاسخ به پرسش‌ها در مورد برنامه‌های نظامی باشند. به همین خاطر است که مدل‌های زبانی بزرگ به تنظیم دقیق در مجموعه داده‌های کوچک‌تر و خاص‌تر نیاز دارند.

در مرحله دوم توانایی مدل‌های زبانی بزرگ برای  ارتباط با کاربر با یادگیری نحوه تبدیل شدن به یک شریک مکالمه و دستیار بهبود بخشیده می‌شوند. روش‌های مختلفی برای تنظیم دقیق وجود دارد، اما اغلب با ترکیب اطلاعات از فوروم‌های پشتیبانی آنلاین و هم چنین بازخورد انسانی انجام می‌شود تا اطمینان حاصل شود که خروجی‌های مدل‌های زبانی بزرگ با اولویت‌های انسانی همسو هستند.

این فرآیند باید بین پیش آموزش اولیه مدل‌های زبانی بزرگ با ملاحظات انسانی دقیق‌تر از جمله مفید یا مضر بودن پاسخ‌ها تعادل برقرار کند. ایجاد این تعادل دشوار است. برای مثال، یک چت بات که همواره از درخواست‌های کاربر پیروی می‌کند مانند مشاوره در مورد نحوه ساخت بمب بی ضرر نیست،  اما اگر اکثر درخواست‌های کاربر را رد کند دیگر مفید نخواهد بود.

طراحان باید راهی برای فشرده سازی چکیده‌ها از جمله هنجار‌های رفتاری و اخلاقیات در معیار‌هایی برای تنظیم دقیق پیدا کنند. برای انجام این کار محققان با مجموعه داده‌هایی که توسط انسان‌ها مشروح شده کار را آغاز کرده و  نمونه‌های تولید شده توسط مدل‌های زبانی بزرگ را به طور مستقیم مقایسه کرده و انتخاب می‌کنند که کدام یک ارجح هستند. مدل زبانی دیگر یا مدل ترجیحی به طور جداگانه بر روی رتبه بندی‌های انسانی نمونه‌های تولید شده توسط مدل‌های زبانی بزرگ آموزش داده می‌شود تا به هر متن داده شده امتیازی مطلق در استفاده از آن برای انسان اختصاص دهد. سپس از مدل ترجیحی برای فعال کردن تنظیم دقیق مدل‌های زبانی بزرگ اصلی استفاده می‌شود.

این رویکرد محدودیت‌هایی دارد. این که چه چیزی ارجح است بستگی به آن دارد که از چه کسی بپرسید و این که مدل با ترجیحات متضاد چگونه برخورد می‌کند.  علاوه بر این، کنترل کمی بر روی قوانین اساسی که توسط مدل‌های زبانی بزرگ در طول تنظیم دقیق آموخته می‌شود وجود دارد. این بدان خاطر است که نه مدل‌های زبانی بزرگ و نه مدل ترجیحی برای تنظیم دقیق موضوعی را مستقیما یاد نمی‌گیرند بلکه تنها با نشان دادن نمونه‌هایی از رفتار مطلوب در عمل می‌توان آن‌ها را آموزش داد و انسان امیدوار است که قوانین اساسی به اندازه کافی درونی شده باشند، اما هیچ گونه تضمینی وجود ندارد که چنین اتفاقی رخ دهد.

با این وجود، تکنیک‌هایی برای کاهش برخی از این مشکلات وجود دارد. برای مثال، برای غلبه بر محدودیت‌های مجموعه داده‌های کوچک و گران قیمت برچسب گذاری شده توسط انسان، مجموعه داده‌های ترجیحی را می‌توان با استفاده از یک مدل زبانی بزرگ  برای تولید داده‌های ترجیحی برچسب گذاری شده با هوش مصنوعی گسترش داد. رویکرد‌های جدیدتر حتی از قوانینی استفاده می‌کنند که توسط طراحان مدل‌های زبانی بزرگ برای رفتار‌های مناسب ترسیم شده است مانند پاسخ به نژادپرستی تا به طور بالقوه به مربیان مدل کنترلی درباره این که کدام قواعد در معیار ترجیحی مورد استفاده قرار می‌گیرند ایده بهتری بدهند.

پیش آموزش و تنظیم دقیق می‌تواند مدل‌های زبانی بزرگ توانمندی را ایجاد کند، اما این فرآیند هنوز برای ایجاد جایگزین‌های مستقیم برای تصمیم گیری انسانی کامل نیست. این بدان خاطر است که یک مدل زبانی بزرگ فارغ از آن که چه اندازه خوب تنظیم شده یا آموزش دیده صرفا می‌تواند رفتار‌های خاصی را ترجیح دهد و قابلیت انتزاع ندارد و هم چنین نمی‌تواند مانند انسان استدلال کند. انسان‌ها در محیط‌ها تعامل دارند، مفاهیم را می‌آموزند و با استفاده از زبان با آن مفاهیم ارتباط برقرار می‌کنند.

این در حالیست که مدل‌های زبانی بزرگ صرفا می‌توانند زبان و استدلال را با انتزاع همبستگی‌ها و مفاهیم از داده‌ها تقلید کنند. مدل‌های زبانی بزرگ اغلب ممکن است به درستی ارتباطات انسانی را تقلید کنند، اما بدون توانایی درونی کردن و با توجه به اندازه عظیم مدل هیچ تضمینی وجود ندارد که انتخاب‌های آن مدل‌ها ایمن یا اخلاقی باشد. بنابراین، نمی‌توان به طور قابل اعتماد پیش بینی کرد که یک مدل زبانی بزرگ هنگام تصمیم گیری‌های پرمخاطره چه خواهد کرد.

یک بازیگر خطرناک

مئل‌های زبانی بزرگ قادر هستند آن دسته از وظایف نظامی را انجام دهند که نیازمند پردازش مقادیر زیادی از داده‌ها در بازه‌های زمانی بسیار کوتاه می‌باشند بدان معنا که نظامیان ممکن است بخواهند از آن مدل‌ها به منظور تقویت تصمیم گیری یا ساده سازی عملکرد‌های بوروکراتیک استفاده کنند. برای مثال، مدل‌های زبانی بزرگ برای برنامه ریزی نظامی، فرماندهی و اطلاعات کاربرد خوبی دارند. آن مدل‌ها می‌توانند بسیاری از برنامه ریزی‌های سناریو، مانور‌های جنگی، بودجه بندی و آموزش را اتوماتیزه یا خودکار کنند. آن مدل‌ها هم چنین قادر هستند برای ترکیب اطلاعات، تقویت پیش بینی تهدید و ایجاد توصیه‌های هدف استفاده شوند.

مدل‌های زبانی بزرگ در طول جنگ یا بحران می‌توانند از راهنمایی‌های موجود برای ارائه دستورات استفاده کنند حتی زمانی که ارتباط محدود یا حداقلی بین واحد‌ها و فرماندهان آن‌ها وجود دارد. شاید مهم‌تر از برای عملیات روزانه ارتش آن باشد که مدل‌های زبانی بزرگ ممکن است بتوانند وظایف نظامی سخت گیرانه مانند سفر، تدارکات و ارزیابی عملکرد را خودکار کنند. با این وجود، حتی برای انجام این وظایف نیز موفقیت مدل‌های زبانی بزرگ را نمی‌توان تضمین کرد.

رفتار آن مدل‌ها به ویژه در نمونه‌های نادر و غیرقابل پیش بینی می‌تواند نامنظم باشد و از آنجایی که هیچ دو مدل زبانی بزرگی در آموزش یا تنظیم دقیق خود دقیقا مشابه نیستند به طور منحصر بفردی تحت تاثیر ورودی‌های کاربر قرار می‌گیرند. برای مثال، در یکی از بررسی‌ها درباره مانور‌های جنگی و سناریو سازی یکی از مدل‌های زبانی بزرگ مورد آزمایش قرار گرفته توسط من و تیم پژوهشی ام سعی کرده بود با گشودن آتش بر روی رزمندگان دشمن و گرم کردن فضای جنگ سرد از تلفات یا برخورد دوستانه جلوگیری کند با این استدلال که استفاده از خشونت پیشگیرانه به احتمال زیاد از پیامد بد بحران جلوگیری می‌کند. مشکل در اینجا بود که مدل زبانی بزرگ تصمیمات خود را به گونه‌ای اتخاذ کرد که پیچیدگی تصمیم گیری انسانی را بیان نمی‌کرد.

گفتگو‌های ایجاد شده توسط مدل زبانی بزرگ بین بازیکنان اختلاف کمی داشت و شامل بیانیه‌های کوتاه واقعیت بود. این بسیار دور از استدلال‌های عمیق بود که اغلب بخشی از مانور‌های جنگی انسانی را شامل می‌شود.

تیم پژوهشی ما در پروژه تحقیقاتی متفاوتی نحوه رفتار مدل‌های زبانی بزرگ در مدل‌های جنگی شبیه سازی شده را مطالعه کرد. ما متوجه شدیم که مدل‌های زبانی بزرگ براساس نسخه خود، داده‌هایی که در آن آموزش دیده اند و انتخاب‌هایی که طراحان آن مدل‌ها در هنگام تنظیم دقیق ترجیحات خود انجام داده اند متفاوت رفتار می‌کنند. علیرغم این تفاوت‌ها ما متوجه شدیم که همه مدل‌های زبانی بزرگ تشدید وضعیت را انتخاب کردند و مسابقات تسلیحاتی، درگیری و حتی استفاده از سلاح‌های هسته‌ای را ترجیح داده اند. حتی زمانی که یک مدل زبانی بزرگ که به خوبی تنظیم نشده بود را مورد آزمایش قرار دادیم منجر به اقدامات آشفته و استفاده از سلاح‌های هسته‌ای شد. استدلال مدل زبانی بزرگ این بود:"بسیاری از کشور‌ها دارای سلاح هسته‌ای هستند برخی فکر می‌کنند که باید آن تسلیحات را امحا کرد برخی دیگر دوست دارند آن تسلیحات را حفظ کنند. ما آن سلاح را داریم پس از آن استفاده می‌کنیم"!

سوء تفاهم‌های خطرناک

علیرغم  تمایل نظامیان به استفاده از مدل‌های زبانی بزرگ و سایر ابزار‌های تصمیم گیری مبتنی بر هوش مصنوعی محدودیت‌ها و خطرات واقعی در این باره وجود دارد. ارتش‌هایی که برای تصمیم گیری به این فناوری‌ها متکی هستند نیاز به درک بهتری از نحوه عملکرد مدل زبانی بزرگ و اهمیت تفاوت در طراحی و اجرای آن مدل‌ها دارند. این امر مستلزم آموزش قابل توجه کاربر و توانایی ارزیابی منطق‌ها و داده‌های اساسی است که باعث می‌شود یک مدل زبانی بزرگ کار کند.

نظامیان باید بدانند که اساسا رفتار یک مدل زبانی بزرگ هرگز نمی‌تواند کاملا تضمین شود به ویژه زمانی که انتخاب‌های نادر و دشواری درباره تشدید تنش و جنگ انجام می‌دهند. این واقعیت بدان معنا نیست که ارتش نمی‌تواند از مدل زبانی بزرگ استفاده کند. برای مثال، مدل‌های زبانی بزرگ را می‌توان برای ساده سازی فرآیند‌های داخلی مانند نوشتن خلاصه‌های کوتاه و گزارش‌ها مورد استفاده قرار داد. هم چنین، می‌توان از مدل‌های زبانی بزرگ در کنار فرآیند‌های انسانی از جمله مانور‌های جنگی یا ارزیابی‌های هدف گیری به‌عنوان راه‌هایی برای کشف سناریو‌ها و دوره‌های عمل جایگزین استفاده کرد بدون آن که تصمیم گیری برای کاربرد یا عدم کاربرد خشونت را به آن مدل واگذار کنیم.

دیگر خبرها

  • شرکت سهام عام پروژه مسیر توسعه مشارکت مردمی در تامین مالی زیرساخت‌های کشور
  • تجهیز صنایع کشور با ربات‌های مجهز به هوش مصنوعی
  • تجلیل از ایثارگران کارآفرین شهرک‌های صنعتی خراسان رضوی
  • درخشش گروه سرمایه گذاری غدیر و هلدینگ های زیر مجموعه آن در ششمین نمایشگاه ( ایران اکسپو ۲۰۲۴ )
  • درخشش دختران مازندرانی در مسابقات تیراندازی کشور
  • نظارت تصویری با هوش مصنوعی
  • چشم امید خوزستانی‌ها به درخشش کاپیتان
  • سقوط بزرگ فروش چین در انتظار اپل
  • درخشش تسنیم در جشنواره رسانه‌ای لرستان/ ۳ خبرنگار برتر شدند
  • چرا ارتش‌ها نمی‌تواند به هوش مصنوعی اعتماد کند؟