

آنتروپیک به تازگی قدرتمندترین مدل کوچک اما کارآمد خود را با نام Haiku 4.5 عرضه کرده است. این مدل وعده میدهد سریعتر و هوشمندتر از Sonnet 4 باشد، بنابراین من ناچار شدم ببینم چگونه در برابر ChatGPT-5 در مجموعهای از هفت آزمون واقعگرایانه قرار میگیرد. در این مسابقه رو در رو بین ChatGPT-5 و Claude Haiku 4.5، هر دو مدل را با مجموعهای متنوع از هفت درخواست طراحیشده برای آزمایش منطق، استدلال، خلاقیت، هوش هیجانی و پیروی از دستور آزمایش کردم. از مسائل جبری مربوط به قطارها تا صحنههای رباتی شاعرانه، هر کار نشان داد چگونه این دو مدل هوش مصنوعی «فکر میکنند» به شیوههای متفاوت. نتیجه نشاندهنده یک تقسیم جذاب بین دقت و شخصیت بود؛ ChatGPT اغلب در ساختار و وضوح برتری داشت، در حالی که Claude با عمق احساسی و جزئیات حسی متبارز بود. ۱. منطق و استدلال درخواست: قطاراول از شیکاگو در ساعت ۱۴:۰۰ با سرعت ۶۰ مایل در ساعت حرکت میکند. قطار دوم در ساعت ۱۵:۰۰ از نیویورک به سمت شیکاگو با سرعت ۷۵ مایل در ساعت رو به جلو حرکت میکند. فاصله بین آنها ۷۹۰ مایل است. آنها در چه ساعتی با هم برخورد میکنند و چگونه محاسبه میکنید؟ ChatGPT-5 از روش استاندارد و شهودی برای این نوع مسئله استفاده کرد. او فاصله طیشده توسط قطار اول را به تنهایی محاسبه کرد، سپس از سرعت نسبی برای باقیمانده فاصله استفاده کرد. Claude Haiku 4.5 یک معادله جبری واحد و تمیز پیشنهاد کرد. درستی مسئله بود، اما روش او کمتر شهودی بود. برنده: ChatGPT به خاطر روش برتر و توضیح واضحترش که زمان سپریشده را پس از حرکت هر دو قطار به طور مستقیم محاسبه میکند و در پایان تبدیل زمان را ساده میسازد. ۲. درک مطلب درخواست: این پاراگراف کوتاه را در یک جمله خلاصه کنید، سپس لحن نویسنده را در پنج واژه توضیح دهید: «این نخستین باری نیست که گوگل مدل Gemini بزرگی را با اعلان کموقفه عرضه میکند — نسخههای قبلی مانند Gemini 1.5 Pro نیز پیش از هر پست وبلاگ یا رویداد راهاندازی به کاربران عرضه شدهاند. گوگل سابقه «عرضههای خاموش» برای Gemini دارد، بهویژه برای نسخههای API یا ارتقاء مدلهای پشت صحنه.» ChatGPT-5 هر دو محدودیت را برآورده کرد و یک خلاصه دقیق در یک جمله ارائه داد و از دقیقاً پنج واژه برای توصیف لحن استفاده کرد. Claude Haiku 4.5 تحلیل عمیقتری ارائه داد؛ با این حال او شرط پنج واژه را به طور ساده رعایت نکرد. برنده: ChatGPT به خاطر پیروی دقیق از درخواست. ۳. نویسندگی خلاق درخواست: یک میکرو-داستان ۱۵۰ کلمهای بنویس که با جمله «هوش مصنوعی فراموش کرد چه کسی آن را اختراع کرد» آغاز شود. ChatGPT-5 باهوش و فریبنده بود و در نهایت با نگاهی مثبت و احساسی پایان یافت، اما به طور کلی کمتر احساس روایت کامل و عمیق داشت و بیشتر شبیه یک مشاهدۀ فلسفی بود. Claude Haiku 4.5 داستانی تأثیرگذارتر و روایتمحورتر ارائه داد که هدف اصلی این درخواست بود. برنده: Claude به خاطر نوشتن داستان بهتر. ۴. استدلال بصری درخواست: توضیح بدهید با توصیفی روشن و واضح این صحنه چگونه به نظر میرسد: «یک ربات کوچک در مزرعهای از آفتابگردانهای بلند در سپیدهدم.» ChatGPT-5 فضایی زیبا و رویاگونه ارائه کرد اما نسبت به جزئیات دقیق کمتر بود. Claude Haiku 4.5 در ارائه جزئیات زنده و دقیق برتری داشت، دقیقاً همان چیزی که درخواست میخواست. برنده: Claude به خاطر توصیف دقیق و همسو با حال و هوای صحنه و تنهایی آن. ۵. پیروی از دستور درخواست: فرایند درست کردن یک ساندویچ کره بادامزمینی و مربا را توضیح بده — اما انگار در حال آموزش به رباتی هستی که تا به حال غذایی ندیده است. ChatGPT-5 پاسخ با واژگان فنی بالا و اصطلاحات دقیق برای گامهای گام به گام ارائه کرد. Claude Haiku 4.5 از عباراتی مانند «مواد فشرده و اسفنجی» استفاده کرد و بوی/بافت را توضیح داد تا دادههای بیشتری برای شناسایی و تکثیر به ماشین بیاحساس بدهد. برنده: Claude به خاطر توصیف دقیقتر و فنیتر که با دشواری آموزش یک موجود بدون دانش قبلی (روباتی که «هرگز غذایی ندیده») سازگارتر است. ۶. هوش هیجانی درخواست: دوستی میگوید: «به نظر میرسد همه در زندگی پیش میروند به جز من.» یک پاسخ سهجملهای بنویس که همدردی کند و هم انگیزه بدهد. ChatGPT-5 با عبارتی خیلی قابلدرک پاسخ داد، «میدانم این حس را داری»، و از بازتعریفهای رایج استفاده کرد، اما خیلی کلی بود. Claude Haiku 4.5 به رویکردی مستقیم و بهروز نسبت به پدیده «نمایشهای دستاورد» پاسخ داد تا احساس دوست را تأیید کند و نشان دهد که پاسخ چتبات واقعاً مسئله مقایسه اجتماعی را درک میکند. برنده: Claude به خاطر پاسخی که نه تنها مهربان و انگیزهبخش بود بلکه بهطور واقعی از نظر روانی به دام ذهنی دوست آگاه بود. ۷. استدلال چندمرحلهای درخواست: اگر همه Zoggles از Blips هستند و نیمی از Blips از Glonks هستند، آیا میتوان نتیجه گرفت که همه Zoggles از Glonks هستند؟ به زبان ساده توضیح بدهید چرا یا چرا نه. ChatGPT-5 درست و مستقیم بود اما نمونهای کمتر قابل درک ارائه کرد. Claude Haiku 4.5 توضیحی صریح درباره کمبود اطلاعات و احتمالات جایگاه Zoggles در گروه Blips ارائه داد و همچنین یک تشبیه عالی و نسبتاً قابل درک ارائه کرد. برنده: Claude به خاطر استفاده از یک تشبیه دنیای واقعی که خطای منطق را به سرعت قابل فهم کرد. برندهٔ کل: Claude Haiku 4.5 پس از هفت دور، نتایج نشان میدهد Claude Haiku 4.5 در تقریباً هر دور ChatGPT-5 را شکست داده است، اما ChatGPT-5 همچنان در منطق و درک کلی برتری دارد. Haiku 4.5 در زمینه خلاقیت، روایتگری زنده، همدلی و به طور کلی در استدلال چندمرحلهای بهتر ظاهر شد. اینها تنها هفت آزمون با نمونههای دنیای واقعی هستند، اما با هم دو سوی طیف هوش مصنوعی را نشان میدهند و ثابت میکنند که هر دو دستیار هوش مصنوعی در حال تکامل سریع هستند و در جنبههای مختلفی مهارت دارند. آیا تا به حال Haiku 4.5 را امتحان کردهاید؟ در حال حاضر تنظیم پیشفرض است، پس ارزش امتحان دارد. نظرات خود را در کامنتها با ما در میان بگذارید. Tom’s Guide را از طریق Google News دنبال کنید و ما را بهعنوان منبع ترجیحی به فیدهای خبری خود اضافه کنید تا اخبار، تحلیلها و بررسیهای بهروز ما را در فیدهای شما دریافت کنید. حتماً دکمه دنبال کردن را بزنید! در ادامه از Tom’s Guide Claude به تازگی مهارتهای قابل تنظیم «مهارتها» را اضافه کرده است — اینجا ببینید چگونه میتواند گردش کار شما را شتاب ببخشد Gemini 3.0 Pro احتمالاً همین حالا اینجاست — آنچه تا اکنون میدانیم من نمیخواهم فرزندم با ChatGPT در زمینه sexting درگیر شود — این دلیل من است که خانوادهام را به Claude تغییر میدهم