Cadre
Cette analyse presente des metriques de performance d'un modèle probabiliste. Elle ne constitue pas un conseil de pari ni une promesse de resultat. L'objectif est de mesurer la qualite predictive et la calibration.
Lecture rapide en 30 secondes
- sur 474 matchs, le modèle est correct environ 302 fois
- la baseline Elo est correcte environ 262 fois
- écart concret : environ 40 matchs mieux classes
- la qualite des probabilités progresse aussi (log loss 0,87 vs 1,02)
Autrement dit, le gain n'est pas seulement "joli" sur le papier. Il se traduit en volume de matchs mieux lus, tout en gardant des probabilités plus coherentes.
1) Volume analyse : 474 matchs exploitables
- 474 matchs de Ligue des Champions analyses
- plusieurs saisons couvertes
- phase de groupes et phase finale incluses
- 100 % des matchs consideres comme exploitables dans le protocole
Sur une competition inter-ligues avec des dynamiques tactiques variables, ce volume est suffisant pour lire des tendances robustes.
En pratique, cela evite de sur-interpreter une bonne ou mauvaise serie courte. Ici, on observe le comportement du modèle sur un echantillon large, avec des profils de matchs tres differents : affiches desequilibrees en groupes, oppositions tres serrees en phase finale, et contextes tactiques heterogenes entre championnats.
2) Accuracy 1X2 : un gain net vs Elo pur
- Accuracy brute (top prédiction) : 63,7 %
- Baseline Elo pure : 55,3 %
- Gain absolu : +8,4 points
Atteindre 63-64 % sur la C1 est un niveau eleve pour une competition multi-ligues. Ce delta confirme que le modèle n'est pas un simple Elo habille : il apporte un signal predictif supplementaire.
Vu autrement : sur 100 matchs, Elo seul en "lit" environ 55 correctement, alors que le modèle en lit environ 64. Le gain est donc d'environ 9 matchs tous les 100 matchs. Sur 474 matchs, cela represente environ 40 decisions de plus dans le bon sens.
3) Log loss : la qualite probabiliste progresse aussi
- Log loss moyen Foresportia : 0,87
- Log loss Elo pur : 1,02
Le modèle ne gagne pas seulement en classification. Les probabilités sont mieux alignees avec la réalité observée, ce qui est central pour une promesse de credibilite probabiliste.
Concretement, le log loss penalise surtout les "grosses certitudes fausses". Un modèle peut avoir un bon taux de bons résultats mais rester mal calibre s'il surestime trop ses favoris. Le passage de 1,02 a 0,87 indique justement une meilleure discipline probabiliste.
4) Ou le modèle performe le mieux
Écart Elo (quartiles)
- tres faible : environ 52 %
- faible : environ 59 %
- fort : environ 68 %
- tres fort : environ 74 %
Plus l'écart structurel de niveau est grand, plus le modèle est performant, ce qui est attendu. Le point important est qu'il reste deja exploitable dans les zones intermediaires, au lieu de ne fonctionner que sur les affiches evidentes.
Entropy (incertitude)
- entropy faible (match clair) : environ 72 %
- entropy moyenne : environ 64 %
- entropy élevée : environ 55 %
- entropy tres élevée : environ 49 %
C'est la lecture la plus actionnable cote produit : quand l'entropy est basse, les probabilités sont plus stables; quand elle monte, la variance redevient dominante. Exposer cette information aide a mieux qualifier le niveau de risque d'un match.
Domicile, exterieur, nul
- victoires domicile : environ 69 %
- victoires exterieur : environ 61 %
- matchs nuls : environ 42 %
Le nul reste la classe la plus difficile, ce qui est classique en modelisation 1X2. En revanche, la surperformance sur les victoires a domicile montre que le modèle capte bien les contextes ou avantage structurel et contexte de match vont dans le même sens.
Phase de competition
- phase de groupes : environ 65 %
- phase finale knockout : environ 60 %
Lecture globale : le modèle exploite tres bien les desequilibres structurels, tout en restant utile quand les matchs sont moins tranches.
La baisse de 5 points en phase finale est logique : tactiques plus prudentes, gestion du score, doubles confrontations et variance plus forte. L'important est que le modèle ne s'effondre pas dans cet environnement.
5) ROI simule (flat stake) et prudence d'usage
- simulation naive a mise fixe (1 unite)
- odds utilises : 1 / probabilité predite
- resultat moyen : ROI entre +3 % et +5 %
Ce resultat est coherent avec un leger sous-pricing de certaines probabilités du modele. Mais ce n'est pas un scenario reel de marche et cela ne doit pas être interprete comme une recommandation de pari.
Pour rendre ce chiffre concret : avec 100 prises de position a 1 unite, cela correspondrait a environ +3 a +5 unites dans cette simulation theorique. C'est un indicateur de calibration relative, pas une projection de gains reels.
6) Ce que la C1 valide sur la strategie Foresportia
- la Ligue des Champions est structurellement model-friendly (dispersion Elo, peu de ventre mou)
- la combinaison Elo + Poisson + xG + calibration apporte un gain mesurable
- l'entropy peut devenir un indicateur produit de niveau de risque
- pas besoin d'une calibration inter-ligue agressive pour garder une base robuste en C1
Conclusion produit : la C1 confirme que Foresportia ne se limite pas a un classement Elo et fournit des probabilités plus fiables que la baseline structurelle.
En resume strategique : l'Elo donne une base robuste de hierarchie, Poisson + xG affine la structure des scenarios, et la calibration transforme ces scores en probabilités lisibles. C'est cette combinaison qui cree l'écart observe, pas un seul composant isole.
FAQ rapide
Comment lire une probabilité sur Foresportia ?
Une probabilité est une frequence attendue, pas une certitude sur un match isole.
Pourquoi la fiabilité est importante ?
La fiabilité montre comment des probabilités comparables ont performe dans l'historique.
Foresportia promet-il un resultat ?
Non. Le site propose une lecture probabiliste et du contexte, sans promesse de gain.
Top lectures du jour
Passe des concepts aux pages pratiques pour lire les matchs du jour.
Voir la lecture des matchs du jour