Provider Icon

Cloud.ru

Общая информация

Лучший LLM Arena Score:
Лучший Latency:
Лучший Throughput:
Лучшее Цена/Качество:
-
Icon gpt-oss-120b gpt-oss-120b
Icon gpt-oss-120b gpt-oss-120b
-

Модели провайдера

Быстрые фильтры:
Модель ID Цена Input Цена Output Контекст Latency (сек) Throughput (т/сек) Квантизация Function Calling
DeepSeek-R1-Distill-Llama-70B DeepSeek-R1-Distill-Llama-70B deepseek/deepseek-r1-distill-llama-70b 195 ₽ 390 ₽ 16384 3.98 29.23 BF16
GigaChat 2 Max GigaChat-2-Max GigaChat/GigaChat-2-Max 1950 ₽ 1950 ₽ 131072 3.61 36.28 -
T-pro-it-2.0 T-pro-it-2.0 t-tech/T-pro-it-2.0 85 ₽ 170 ₽ 40960 2.44 41.3 BF16
gpt-oss-120b OpenAI: gpt-oss-120b openai/gpt-oss-120b - ₽ - ₽ 131072 2.34 47.93 BF16/U8
llama-3.3-70b-instruct Meta: Llama 3.3 70B Instruct meta-llama/llama-3.3-70b-instruct 195 ₽ 390 ₽ 131072 3.07 29.69 BF16

Ключевые определения

Контекстное окно: максимальное общее количество входных и выходных токенов.

Throughput (скорость вывода): количество токенов в секунду, получаемых во время генерации токенов моделью (т.е. после получения первого фрагмента от API для моделей, поддерживающих потоковую передачу).

Latency (задержка, время до первого токена): время до получения первого токена в секундах после отправки запроса к API. Для моделей, использующих общие токены для рассуждений, это будет первый токен рассуждения. Для моделей, не поддерживающих потоковую передачу, это время до получения полного ответа.

Цена аутпута (вывода): цена за токен, сгенерированный моделью (полученный от API), выраженная в соответствующей валюте за миллион токенов.

Цена инпута (ввода): цена за токен, включенный в запрос/сообщение, отправленное к API, выраженная в соответствующей валюте за миллион токенов.

← Назад к моделям