در این مقاله ای بازی به بررسی دقت هوش مصنوعی OpenAI می پردازیم. در روزهای اخیر، OpenAI گزارش داده است که حتی جدیدترین و پیشرفتهترین مدلهای هوش مصنوعی آن به میزان زیادی پاسخهای نادرست ارائه میدهند. این یافتهها سوالات زیادی را درباره دقت هوش مصنوعی OpenAI و کارایی این تکنولوژی در زندگی روزمره ایجاد کرده است. با انتشار یک معیار سنجش جدید به نام SimpleQA، OpenAI سعی دارد دقت و صحت خروجی مدلهای خود و دیگر شرکتها را ارزیابی کند.
بررسی دقت هوش مصنوعی OpenAI در معیار SimpleQA
مدل o1-preview OpenAI
مدل جدید o1-preview، که به تازگی معرفی شده است، در آزمایشهای OpenAI تنها ۴۲.۷ درصد دقت داشت؛ به این معنا که بیش از نیمی از پاسخهای آن نادرست بود. این یافتهها به شکلی نگرانکننده نشان میدهد که دقت هوش مصنوعی OpenAI در پاسخ به سوالات همچنان پایین است.
مدلهای رقیب
مدل جدیدی از شرکت Anthropic به نام Claude-3.5-sonnet حتی عملکرد ضعیفتری در این معیار داشت و فقط ۲۸.۹ درصد از سوالات را به درستی پاسخ داد. با این حال، Claude-3.5-sonnet نسبت به مدلهای دیگر، تمایل بیشتری به اعلام عدم قطعیت خود و خودداری از پاسخ دادن داشت؛ که شاید در شرایطی که دقت پایین است، این خصوصیت مطلوبتر باشد.
مشکل اعتماد به نفس بیش از حد در مدلهای هوش مصنوعی
یکی از نگرانیهای بزرگ دیگر در مورد دقت هوش مصنوعی OpenAI، تمایل مدلها به اعتماد به نفس بیش از حد در پاسخهای اشتباه است. این رفتار، که به عنوان “توهمات” شناخته میشود، به حالتی اطلاق میشود که مدلها اطلاعات نادرست یا ساختگی ارائه میدهند و در عین حال به درستی آن اصرار میورزند.
تاثیرات توهمات در استفادههای عملی
در هفته گذشته، یکی از مدلهای هوش مصنوعی OpenAI که در بیمارستانها برای ثبت اطلاعات بیماران استفاده میشود، مشخص شد که توهمات زیادی از خود نشان داده و اطلاعات نادرست یا ساختگی ارائه میدهد. این یافتهها به شکلی نگرانکننده دقت هوش مصنوعی OpenAI را زیر سوال میبرد و لزوم بررسی دقیقتر در کاربردهای پزشکی را یادآور میشود.
پیامدهای گسترده اجتماعی و حقوقی
استفاده از هوش مصنوعی در پلیس و قانون
در حال حاضر، برخی از نیروهای پلیس در ایالات متحده از مدلهای هوش مصنوعی استفاده میکنند، که این امر نگرانیهایی را در خصوص بیعدالتی و احتمال قضاوت نادرست علیه افراد بیگناه ایجاد کرده است. با توجه به دقت هوش مصنوعی OpenAI و سایر مدلها، استفاده از این تکنولوژی در حوزههایی مانند حقوق و قانون نیاز به بررسیهای دقیق و اصلاحات اساسی دارد.
آیا دقت مدلهای هوش مصنوعی با افزایش دادهها بهبود مییابد؟
برخی از کارشناسان معتقدند که با افزایش حجم دادههای آموزشی، میتوان دقت هوش مصنوعی OpenAI و دیگر مدلها را بهبود بخشید. با این حال، این سوال هنوز به شکل کامل پاسخ داده نشده و مشخص نیست که آیا این مدلها در نهایت قادر خواهند بود به سطح بالایی از دقت و اعتمادپذیری دست یابند یا خیر.
کلام آخر: نیاز به هوشیاری و دقت در استفاده از هوش مصنوعی
با توجه به نتایج اخیر دقت هوش مصنوعی OpenAI، ضروری است که کاربران و کسبوکارها با دقت بیشتری از این فناوری استفاده کنند و به خروجیهای آن با تردید نگاه کنند. تا زمانی که این تکنولوژی به سطح بالاتری از دقت و اعتمادپذیری نرسیده است، لازم است هر خروجی هوش مصنوعی با دقت بازبینی شود تا از مشکلات احتمالی جلوگیری شود.
پیشرفت هوش مصنوعی به طور گستردهای در تسهیل کارهای روزمره، از نگارش متون گرفته تا تصمیمگیریهای کلان، نقشآفرینی کرده است. با این حال، سوالات اساسی پیرامون دقت هوش مصنوعی OpenAI و سایر مدلها همچنان وجود دارد، به ویژه در مواردی که پای صداقت آکادمیک و صحت اطلاعات به میان میآید.
مدلهای هوش مصنوعی، از جمله ابزارهای پردازش زبان طبیعی OpenAI، در عین قابلیتهای بینظیر، گاهی اوقات پاسخهای اشتباه یا توهمات را با اطمینان ارائه میدهند. این مسأله میتواند به چالشی برای دانشگاهها، پژوهشگران، و متخصصان تبدیل شود که نیاز به ارزیابی دقیق منابع و صحت اطلاعات دارند تا صداقت علمی و آکادمیک هوش مصنوعی حفظ شود. برای مقابله با این مشکل، ابزارهایی برای تشخیص خودکار متنهای تولیدشده توسط هوش مصنوعی و راهکارهایی برای بهبود دقت این مدلها پیشنهاد میشود.
منبع: futurism
تاریخ آخرین آپدیت: ۱۴ام آبان ۱۴۰۳