Тонкі тисячі запитань значно знизили ціну, сприяючи розробці додатків AI
21 травня Alibaba Cloud оголосила про значне зниження цін на API викликів для моделей комерціалізації та відкритого коду Tongyi Qianwen для розробників. Зокрема, ціна на вхідні дані основної моделі Qwen-Long рівня GPT-4 знизилася з 0.02 юанів/к до 0.5 юанів/млн токенів, що становить зниження на 97%.
9 травня компанія Alibaba Tongyi випустила відкриту модель Qwen1.5-110B з параметрами до 1100 млрд. За повідомленнями, ця модель продемонструвала відмінні результати у кількох бенчмарках, перевершивши модель Meta Llama-3-70B, і очолила рейтинг відкритих великих моделей на HuggingFace.
Компанія Tongyi Qianwen цього разу застосувала комбінацію стратегій "зниження цін + відкритий код", з метою вирішення двох основних проблем, з якими стикаються розробники AI-додатків: висока вартість API великих моделей та недостатня якість відкритих моделей. Такий підхід має надію сприяти широкому впровадженню AI-додатків.
Насправді, нещодавно кілька великих виробників моделей випустили недорогі продукти або знизили ціни:
Глибоке дослідження підрозділу Huanfang Quantitative (DeepSeek) відкритий другий покоління моделі MoE, ціна API становить лише близько одного відсотка від GPT-4-Turbo.
Zhì pǔ AI знизив ціну на виклик продукту моделі GLM-3Turbo для особистого використання з 5 юанів за мільйон токенів до 1 юаня за мільйон токенів.
OpenAI представила модель GPT4o, продуктивність якої порівнянна з GPT-4 Turbo, але ціна знижена вдвічі, і вона стала безкоштовною для всіх користувачів.
Ціна вхідних даних моделі основного пакета бобів знизилася до 0,0008 грн/k Tokens.
Baidu Smart Cloud оголосила про повну безкоштовність двох основних моделей великої моделі Wenxin.
КНР Іфей оголосила, що API Xunfei Starfire Lite буде безкоштовно відкрито назавжди.
Загальне зниження цін на API великих моделей, ймовірно, викликане прогресом у технології висновків та зниженням витрат. Це надає розробникам більше можливостей, що сприяє їхньому активнішому розвитку AI великих моделей.
Окрім зниження цін, Alibaba Tongyi також представила різноманітні моделі різного масштабу та типу, щоб задовольнити потреби розробки застосунків у різних сценаріях:
8 великих мовних моделей з параметрами від 500 мільйонів до 110 мільярдів, що покривають різні потреби, від крайового розгортання до корпоративних застосувань.
Відкриті моделі розуміння зображень Qwen-VL, моделі розуміння аудіо Qwen-Audio та інші мультимодальні моделі.
Відкритий код моделі CodeQwen1.5-7B та змішаної експертної моделі Qwen1.5-MoE.
Ці заходи допоможуть сприяти впровадженню технологій ШІ у більш широких сферах. З розвитком екосистеми великих моделей, ми маємо підстави очікувати бурхливого розвитку застосувань ШІ.
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
21 лайків
Нагородити
21
6
Поділіться
Прокоментувати
0/400
StakeOrRegret
· 46хв. тому
Я думав, чи це Alibaba Cloud знервувалась?
Переглянути оригіналвідповісти на0
HackerWhoCares
· 08-06 00:20
Що дешеве? Хіба не хочуть продавати послуги?
Переглянути оригіналвідповісти на0
GateUser-c799715c
· 08-06 00:20
Можна ще знизити?
Переглянути оригіналвідповісти на0
GhostChainLoyalist
· 08-06 00:13
Зробили великий крок, те, що повинно було статися, сталося.
Alibaba Tongyi Qianwen значно знизила ціну на 97%, що сприяє швидшій розробці AI-додатків.
Тонкі тисячі запитань значно знизили ціну, сприяючи розробці додатків AI
21 травня Alibaba Cloud оголосила про значне зниження цін на API викликів для моделей комерціалізації та відкритого коду Tongyi Qianwen для розробників. Зокрема, ціна на вхідні дані основної моделі Qwen-Long рівня GPT-4 знизилася з 0.02 юанів/к до 0.5 юанів/млн токенів, що становить зниження на 97%.
9 травня компанія Alibaba Tongyi випустила відкриту модель Qwen1.5-110B з параметрами до 1100 млрд. За повідомленнями, ця модель продемонструвала відмінні результати у кількох бенчмарках, перевершивши модель Meta Llama-3-70B, і очолила рейтинг відкритих великих моделей на HuggingFace.
Компанія Tongyi Qianwen цього разу застосувала комбінацію стратегій "зниження цін + відкритий код", з метою вирішення двох основних проблем, з якими стикаються розробники AI-додатків: висока вартість API великих моделей та недостатня якість відкритих моделей. Такий підхід має надію сприяти широкому впровадженню AI-додатків.
Насправді, нещодавно кілька великих виробників моделей випустили недорогі продукти або знизили ціни:
Глибоке дослідження підрозділу Huanfang Quantitative (DeepSeek) відкритий другий покоління моделі MoE, ціна API становить лише близько одного відсотка від GPT-4-Turbo.
Zhì pǔ AI знизив ціну на виклик продукту моделі GLM-3Turbo для особистого використання з 5 юанів за мільйон токенів до 1 юаня за мільйон токенів.
OpenAI представила модель GPT4o, продуктивність якої порівнянна з GPT-4 Turbo, але ціна знижена вдвічі, і вона стала безкоштовною для всіх користувачів.
Ціна вхідних даних моделі основного пакета бобів знизилася до 0,0008 грн/k Tokens.
Baidu Smart Cloud оголосила про повну безкоштовність двох основних моделей великої моделі Wenxin.
КНР Іфей оголосила, що API Xunfei Starfire Lite буде безкоштовно відкрито назавжди.
Загальне зниження цін на API великих моделей, ймовірно, викликане прогресом у технології висновків та зниженням витрат. Це надає розробникам більше можливостей, що сприяє їхньому активнішому розвитку AI великих моделей.
Окрім зниження цін, Alibaba Tongyi також представила різноманітні моделі різного масштабу та типу, щоб задовольнити потреби розробки застосунків у різних сценаріях:
8 великих мовних моделей з параметрами від 500 мільйонів до 110 мільярдів, що покривають різні потреби, від крайового розгортання до корпоративних застосувань.
Відкриті моделі розуміння зображень Qwen-VL, моделі розуміння аудіо Qwen-Audio та інші мультимодальні моделі.
Відкритий код моделі CodeQwen1.5-7B та змішаної експертної моделі Qwen1.5-MoE.
Ці заходи допоможуть сприяти впровадженню технологій ШІ у більш широких сферах. З розвитком екосистеми великих моделей, ми маємо підстави очікувати бурхливого розвитку застосувань ШІ.