Embedding catalogue pour Algolia/Pinecone.
On vectorise chaque fiche produit, on indexe, on enrichit la search avec du sémantique. Coût dérisoire sur 100k produits.

Le couteau suisse de l’IA produit.
OpenAI reste un acteur central. On l’utilise principalement pour les embeddings (text-embedding-3) et la vision (GPT-4V). Pour les agents produit complexes, on penche vers Claude, mais OpenAI a des forces qu’on ne néglige pas.
OpenAI a trois avantages structurels : l’API la plus mature (structured outputs, tools, vision, audio), des modèles d’embedding parmi les meilleurs du marché (text-embedding-3-large, 3072 dimensions), et un écosystème d’outils connexe (Whisper pour l’audio, DALL-E pour l’image).
On choisit entre Claude et GPT selon le cas. GPT-5 et Claude Opus sont au coude-à-coude sur le raisonnement. Sur les embeddings à grande échelle, sur la vision catalogue, sur la génération d’images produit, OpenAI reste souvent le meilleur choix.
On vectorise chaque fiche produit, on indexe, on enrichit la search avec du sémantique. Coût dérisoire sur 100k produits.
Les photos produit contiennent énormément d’info que GPT-4V peut tagger : couleur, coupe, style, matière. Gain énorme sur les catalogues textiles.
Realtime API pour hotlines, Whisper pour indexer les appels SAV. Création de knowledge bases à partir de l’audio.
OpenAI est souvent une brique dans un pipeline plus large. On ne l’utilise pas pour lui-même.
Où l’IA s’insère (pré-traitement, génération, enrichissement). Point d’intégration clair.
Version fonctionnelle en 1–2 semaines. On mesure avant d’étendre.
Batching, caching, fallback. Coût optimisé et latence maîtrisée.
Logs, coûts, qualité. On détecte les régressions avant les users.
Évaluation du use-case, prototype en 2 semaines, coût prévisible.
Prendre RDV →