logo Begeek

OpenAI vise à rendre l’IA plus accessible avec des prix réduits

OpenAI vise à rendre l’IA plus accessible avec des prix réduits
Publié le

Afin de rendre ses modèles plus accessibles, OpenAI dévoile Flex processing, une solution qui diminue les frais pour des tâches secondaires, mais impose des compromis sur la réactivité et l'accessibilité des ressources.

Tl;dr

  • OpenAI lance Flex processing, une option API réduisant les coûts mais avec des délais de réponse plus longs et des interruptions possibles.
  • Les tarifs sont divisés par deux pour les modèles o3 et o4-mini, rendant l’option plus abordable pour des tâches non urgentes.
  • L’accès aux modèles o3 nécessite désormais une vérification d’identité pour les utilisateurs des niveaux 1 à 3.

Une offre plus abordable pour des tâches secondaires

Flex processing est conçu pour rendre l’utilisation des modèles d’IA d’OpenAI plus accessible, en particulier pour les tâches secondaires telles que les évaluations de modèles, l’enrichissement de données et les charges de travail asynchrones. Grâce à Flex, OpenAI cible les utilisateurs ayant des besoins moins urgents, leur permettant de bénéficier de tarifs plus compétitifs. Cette approche vise à alléger les coûts pour ceux qui ne nécessitent pas des réponses instantanées. Ainsi, au lieu de payer des prix élevés pour des tâches non critiques, les utilisateurs peuvent opter pour une solution plus économique, mais avec des compromis en termes de performance.

Des économies substantielles pour les modèles o3 et o4-mini

OpenAI réduit les coûts d’utilisation des modèles o3 et o4-mini de manière substantielle avec Flex processing. Pour le modèle o3, le prix est divisé par deux, passant à 5 dollars par million de tokens d’entrée, contre 10 dollars en tarif standard, et à 20 dollars pour un million de tokens de sortie, contre 40 dollars. Pour o4-mini, la réduction est tout aussi significative, avec un tarif de 0,55 dollars par million de tokens d’entrée, contre 1,10 dollars, et de 2,20 dollars pour les tokens de sortie, contre 4,40 dollars. Ces prix plus abordables s’adressent principalement aux utilisateurs cherchant à effectuer des tâches moins sensibles au temps, tout en maintenant une qualité d’exécution acceptable.

Des compromis sur la vitesse et la disponibilité

Toutefois, ces économies viennent avec un prix : des délais de réponse plus longs et des périodes possibles d’indisponibilité des ressources. En choisissant cette option, les utilisateurs doivent accepter de ne pas avoir une garantie de réactivité immédiate, ce qui peut être un inconvénient pour ceux dont les tâches sont sensibles au temps. Les utilisateurs devront ainsi adapter leurs attentes et leurs priorités, en optant pour Flex lorsque la rapidité n’est pas un critère crucial. Ce compromis peut se révéler avantageux pour les projets où la rapidité n’est pas une exigence stricte.

La concurrence avec Google et l’impact sur la politique d’accès

Le lancement de Flex processing intervient dans un contexte de concurrence de plus en plus féroce avec d’autres entreprises comme Google, qui ont lancé des modèles plus abordables. Par exemple, Google a récemment présenté Gemini 2.5 Flash, un modèle de raisonnement qui offre des performances équivalentes ou supérieures au modèle DeepSeek R1, mais à un coût par token d’entrée plus bas. Face à cette concurrence, OpenAI renforce son offre avec des options flexibles et moins coûteuses, mais en imposant de nouvelles conditions d’accès. Désormais, les utilisateurs des niveaux 1 à 3 de la hiérarchie des utilisateurs doivent passer par une vérification d’identité pour accéder à certains modèles, une mesure visant à limiter les abus et assurer un usage conforme des services.

Publicité

À lire aussi sur Begeek:

Accessibilité : partiellement conforme