امروز OpenAI از عرضه مدل جدید و مقرون به صرفه خود به نام o3-mini خبر داد که میتواند در زمینههای ریاضی، برنامهنویسی و علوم با عملکرد مدل o1 OpenAI رقابت کند. این مدل جدید o3-mini از طریق APIهای OpenAI در دسترس است و از ویژگیهای کامل مانند تماسهای توابع، خروجیهای ساختاری، استریمینگ و پیامهای توسعهدهنده از طریق APIهای Chat Completions، Assistants و Batch پشتیبانی میکند.
همزمان با اعلام OpenAI، مایکروسافت نیز اعلام کرد که مدل o3-mini در سرویس OpenAI Azure این شرکت در دسترس است. توسعهدهندگان علاقهمند میتوانند برای دسترسی به o3-mini در Azure AI Foundry ثبتنام کنند.
یینا آرناس، معاون رئیس محصول و هوش مصنوعی اصلی در مایکروسافت، در مورد راهاندازی o3-mini نوشت:
مدل o3-mini نسبت به o1-mini کارایی هزینهای قابل توجهی را با استدلال بهبود یافته و ویژگیهای جدیدی مانند کنترل تلاش استدلال و ابزارها اضافه میکند و در عین حال پاسخگویی مشابه یا بهتری را ارائه میدهد. قابلیتهای پیشرفته o3-mini به همراه افزایش کارایی آن، این مدل را به ابزاری قدرتمند برای توسعهدهندگان و شرکتهایی تبدیل میکند که به دنبال بهینهسازی برنامههای هوش مصنوعی خود هستند.
گیتهاب مایکروسافت نیز از عرضه o3-mini در GitHub Copilot و مدلهای گیتهاب برای توسعهدهندگان خبر داد. نسبت به o1-mini، توسعهدهندگان میتوانند انتظار خروجیهای با کیفیت بهتری از مدل جدید o3-mini داشته باشند. این مدل برای کاربران GitHub Copilot Pro، Business و Enterprise از طریق انتخاب مدل در Visual Studio Code و چت github.com در دسترس است. گیتهاب در هفتههای آینده پشتیبانی از مدل o3-mini را به Visual Studio و JetBrains نیز خواهد آورد.
مشترکین GitHub Copilot میتوانند هر ۱۲ ساعت تا ۵۰ پیام دریافت کنند. مدیران GitHub Business یا Enterprise نیز میتوانند دسترسی به مدل جدید o3-mini را برای اعضای سازمان خود از طریق صفحات تنظیمات مدیریتی فعال کنند.
گیتهاب همچنین مدل o3-mini را به زمین بازی مدلهای گیتهاب میآورد که در آن توسعهدهندگان میتوانند قابلیتهای این مدل را بررسی کرده و همچنین آن را با سایر مدلها از Cohere، DeepSeek، Meta و Mistral مقایسه کنند.
دسترسپذیری مدل o3-mini در چندین پلتفرم به توسعهدهندگان این امکان را میدهد که قابلیتهای جدید استدلالی آن را در برنامهها و خدمات خود ادغام کنند.
source