Interview Marek Kwiatkowski

Marek Kwiatkowski est analyste professionnel et membre actif de la communauté football analytics. En tant que lecteur assidu et grand admirateur de ses travaux, j’ai voulu en savoir davantage sur lui et sa vision des stats dans le football actuel. L'interview a été réalisée en anglais, la traduction assurée par mes soins et revue par Marek. La version originale est disponible ci-dessous.

Salut Marek, pour ceux qui ne te connaissent pas, pourrais-tu te présenter s’il-te-plaît ?

Bien sûr : j’ai 35 ans, je suis polonais et je vis en Suisse. Par le passé, j’ai fait de la recherche en informatique théorique, biologie des systèmes et écologie évolutive. Depuis 2014, je travaille dans le football, tout d’abord au sein du médiatique analytics project pour le Brentford FC et ensuite dans l’industrie des paris sportifs.

Au sein de la communauté tu es surtout connu pour tes travaux sur les joueurs (modélisation de la qualité de passe et de finition). En dehors de cela, et sans trahir de secrets, qu’est-ce qui occupe ton temps d’analyste ?

Mon dernier job était focalisé sur de l’analyse au niveau « équipe » et nous avons développé des systèmes d’évaluation d’équipe assez sophistiqués. Et comme toujours dans des exploitations analytiques digne de ce nom, il y a une charge importante de création et de maintenance d’infrastructure de données, ce qui a consommé une bonne partie de mon temps également. Malheureusement, dernièrement, je n’ai pas eu beaucoup de temps pour des projets personnels, mais c’est en train de changer.

En matière de football analytics, quelles sont tes préférences personnelles - qu’est-ce tu aimes faire ?

Une réponse étrange peut-être, mais j’aime découvrir de nouvelles méthodologies et voir comment elles peuvent m’aider à mieux comprendre le football. Je n’ai pas de formation « officielle » en statistiques, donc pas mal de techniques d’apprentissage automatique que je rencontre en lisant certains travaux ou des manuels ou tout simplement en recherchant une solution à un problème donné sont véritablement rafraichissantes et excitantes pour moi.

Autre chose que je trouve passionnant c’est la modélisation à partir de grandes quantités de données : des dizaines de milliers de matches et des millions d’actions avec le ballon. De cette façon, on peut non seulement éviter les problèmes de taille d’échantillon dans de nombreux cas, mais aussi en déduire des idées sur le jeu qui sont véritablement généralisables. Bien sûr, des compétences en ingénierie des données et parfois aussi en cloud-computing sont nécessaires pour ce genre de travaux, mais mon expérience en informatique m’a donné les bases pour les développer rapidement.

Quelle est ton opinion sur la production actuelle de la communauté football analytics, que ce soit publique ou privée (en dehors du fait qu’elle accorde une trop grande importance aux expected goals) ? J’ai l’impression que la production dans les sports US est plus avancée, sans que j’arrive à vraiment comprendre pourquoi. Par exemple en dehors de tes travaux je n’ai pas lu beaucoup d’études de ce type

Je ne peux pas parler de ce qui se passe au sein des clubs ou d’autres organisations qui ont une approche quantitative du football parce que je n’en ai aucune idée. En dehors des analyses descriptives (NDLR qui utilisent les stats pour décrire ce qui s’est passé par opposition aux analyses prédictives qui ont pour objet les résultats futurs) qui sont souvent de bonne qualité, j’ai une mauvaise opinion de la production publique actuelle. Il y a une sorte de biais du survivant inversé ici, en ce sens que les très bons modélisateurs et analystes sont finalement embauchés et disparaissent du public, mais même en tenant compte de cet effet, la production publique a été décevante ces dernières années.

En partie, peut-être, parce que tout se passe sur Twitter. Les motivations en ressortent fortement orientées : les prises de positions accrocheuses et les graphiques flashy sont récompensés plus rapidement et plus sûrement qu’un travail sérieux et approfondi.

Ensuite, il y a l’authentique difficulté des méthodologies nécessaires à la modélisation des données. Les deux exemples que tu cites utilisent des modèles mixtes linéaires généralisés et des simulations bayésiennes MCMC - ils ne peuvent être appris en une soirée ! Avec un doctorat dans une discipline quantitative et une partie importante de mon temps libre, il m’a fallu des mois pour en devenir un utilisateur confiant. Il me semble donc déraisonnable de s’attendre à ce que chaque fanalyste déploie ce genre d’artillerie, même s’il n’en reste pas moins que pour un travail prédictif sérieux, ce doit être fait.

Selon-toi, dans quel domaine les stats pourraient avoir le plus d’impact au sein d’un club (transferts, composition de départ, tactique et analyse de l’opposition) ?

Dans le cas des données d’événement (NDLR les actions avec le ballon : tirs, passes, tacles etc…), je pense que c’est principalement l’évaluation de la performance de l’équipe et le marché des transferts. (J’ai peu d’expérience avec les performances physiques ou les données de positionnement, donc je ne peux pas vraiment en parler.) Les outils d’analyse disponibles, y compris publiquement, sont si robustes au niveau « équipe » qu’il serait irresponsable de la part des décideurs au sein des clubs de ne pas les utiliser pour garder un œil sur la performance de leur équipe. Et même si je suis sûr que beaucoup le font, on constate régulièrement que certains choix sont tellement incompatibles avec une approche analytique qu’il est clair que d’autres ne le font toujours pas.

J’évoque l’application au recrutement dans la question suivante.

Pour ce qui est de la tactique, de la sélection du 11 de départ et, dans une moindre mesure, de l’analyse de l’adversaire, je suis sceptique, surtout, encore une fois, si on parle des données d’événement. On doit se rappeler que d’abord, les données d’événement nous donnent une image du jeu qui est loin d’être complète. En particulier, manquent le positionnement des joueurs et les courses, ce qui, à mon avis, exclut toute analyse tactique détaillée. Deuxièmement, l’analyse au niveau « joueur », basée sur les statistiques individuelles est moins avancée et moins robuste que celle de niveau « équipe », car nous n’avons pas encore établi de lien suffisamment fort entre la production individuelle et les performances de l’équipe. Cela ne veut pas dire que les statistiques des joueurs ne sont pas utiles, loin de là, mais je ne m’attendrais pas à ce qu’elles jouent un rôle aussi central dans la sélection du 11 de départ que le rôle que peuvent jouer par exemple les expected goals et leurs tendances dans l’analyse de la performance de l’équipe.

A mon sens le marché des transferts est encore inefficient et le recrutement via les statistiques peut (pour le moment) donner un avantage au club pour trouver de la valeur. Es-tu d’accord ?

Oui, bien que je me doive de souligner que l’analyse statistique fonctionne mieux lorsqu’elle complète les méthodes traditionnelles et non les remplace. Je signale ci-dessus que l’analyse statistique des joueurs est problématique, mais en réalité quelques principes sont suffisamment bien établis pour aider dans le recrutement. En outre, on peut toujours utiliser des données pour répondre à des questions spécifiques sur un joueur. Mais le plus grand avantage que les statistiques peuvent apporter au processus de recrutement est de détecter les erreurs (couteuses) avant qu’elles ne soient commises. Tellement de transferts sont basés sur des raisonnements facilement démentis par les statistiques, ou sont tout simplement mauvais en raison du style de jeu, de l’âge, du contexte actuel de l’équipe, etc. que si les clubs avaient ne serait-ce qu’un statisticien - et l’écoutaient ! - Ils pourraient économiser des millions d’euros par an.

Pour rebondir sur la dernière question, y-a-t-il un joueur relativement méconnu, que nous devrions tous regarder jouer sur la base de ce que tu as pu trouver dans les données ? Peux-tu développer ? (Je trouve ça génial que ton modèle de qualité de passe ait révélé Ruben Aguilar en Ligue 2 et qu’il soit performant cette saison avec Montpellier)

S’il y en avait un, je ne le dirais pas ! Mais la triste vérité c’est que je me suis tellement focalisé sur le travail au niveau « équipe » récemment que je n’ai pas de liste de joueurs que je pourrais trier selon toute sorte de délicieuses métriques. Pas encore tout du moins.

As-tu pu identifier un effet “âge” dans la qualité de passe et de finition ?

Il y a certainement un effet lié à l’âge dans mon modèle de complétion des passes, dans le sens où on peut utiliser l’âge du joueur comme variable et qu’elle ressort comme statistiquement significative. Que cela corresponde vraiment au développement de la qualité de passe avec l’âge, ou que le rôle des joueurs change avec le temps, c’est une question d’interprétation. Je n’ai pas essayé avec le modèle de finition, mais je suspecte un résultat similaire.

Qu’en est-il des qualités défensives ? Peut-on désormais identifier un bon défenseur central via les données ? Je suis un grand fan de PATCH, vois-tu autre chose qui pourrait être pertinent ?

PATCH est génial et probablement le mieux que l’on puisse faire semi-rapidement avec les données d’événement. En général, la défense est un domaine où le contrôle de l’espace, le positionnement, la coordination des joueurs, etc. sont plus importants qu’en attaque, et par conséquent l’évaluation des performances défensives est plus difficile avec ces données. Personnellement, je suis capable de classifier les défenseurs centraux, ce qui peut déjà être utile si l’on connait le type de joueur que l’on recherche (destructeur, libero, relanceur, etc.) ; toutefois je ne peux pas identifier la qualité de ces joueurs. Mais c’est juste moi.

Penses-tu que les entreprises qui collectent les données ratent quelque chose lorsqu’elles codent les actions ? Si oui, quoi ?

Chaque spécification de données est un exercice de compromis, et chaque jeu de données manquera quelque chose. C’est la vie. Par exemple, quand je travaillais sur les passes, j’aurais vraiment voulu avoir une indication de l’intention du passeur - voulait-il dire jouer court ou long, à quel joueur essayait-il de passer, à quelle position ? Mais cela exigerait beaucoup plus de travail lors de la collecte, alors quelqu’un, quelque part, a décidé que ce ne serait pas collecté.

Les données de tracking sont-elles l’alpha et l’omega des football analytics ? Je sais que tu penses qu’il y a encore beaucoup à faire avec les données actuelles. Logiquement je me dois de te demander : où en est-on sur le chemin d’un nouveau genre d’analytics ?

Il reste encore certainement beaucoup à faire avec les données d’événements (même si je ne sais pas moi-même ce qu’il reste à faire), et l’utilisation intelligente de ces données doit encore être largement déployée au sein des clubs. Mais ce sont les données de tracking qui donnent une image complète de ce qui s’est réellement passé sur le terrain et, en ce sens, c’est un aboutissement logique.

Cependant, et permets-moi de passer à mon dada préféré, nous avons besoin d’un cadre théorique et conceptuel avant de pouvoir donner un sens à ces données de tracking. C’est ce que je dis pour les données d’événement dans l’article que tu mets en lien, mais le besoin est encore plus critique dans le cas des données de tracking. Quelles sont les variables importantes ? Quelle est l’unité d’analyse ? Nous ne savons tout simplement pas. Un moyen de contourner le problème serait d’emprunter des concepts de coaching, mais le travail sur les données d’événements a été le plus réussi quand il a défié les idées préconçues sur ce qui est important et ce qui ne l’est pas, donc je ne suis pas un fan même si cela aiderait certainement à l’adoption.

Comment analyserais-tu la prise de décision dans le football ? Martin Eastwood a construit un très chouette outil l’an dernier, vois-tu autre chose qui pourrait-être fait différemment ou ajouté ?

Il semble que la réponse à cette question est disséminée dans les réponses précédentes.

Quels types de problèmes pourrait-on résoudre avec les réseaux neuronaux qu’on ne pourrait approcher avec les outils plus classiques des paradigmes fréquentistes ou bayésiens ? Est-ce seulement une question de précision des résultats ?

C’est une excellente question que je me pose depuis quelque temps, même si je n’ai pas travaillé avec des réseaux de neurones depuis l’université. Tout d’abord, si vous avez deux modèles comparables sur un même aspect du jeu, l’un basé sur les réseaux neuronaux / deep learning et l’autre sur une approche statistique traditionnelle, vous devriez opter pour ce dernier au détriment de la précision, parce que vous pourrez réellement interpréter les résultats. Donc, il ne s’agit pas d’une question de précision du modèle pour moi.

Cependant, le football est si complexe qu’il y a un réel potentiel dans une approche deep learning pour capturer certains des principes sous-jacents que nous n’avons pas encore découvert avec les approches statistiques traditionnelles, notamment parce que nous n’avons pas le vocabulaire pour les expliciter. Le lien entre la performance du joueur et la performance de l’équipe que j’ai mentionné auparavant pourrait être une question à poser à un réseau de neurones.

Une autre possibilité pourrait être l’analyse des données de tracking - comme je le disais plus haut, l’univers conceptuel des football analytics étant médiocre, le manque d’interprétabilité des modèles de réseaux neuronaux ne nous empêcherait finalement pas de simplement donner une partie de ces données à un réseau de neurones, poser qq questions simples et voir ce qu’il répond. Pas la façon idéale de faire de la recherche certes, mais que peut-on y faire …

Je n’ai pas beaucoup lu d’article analytique sur ce que font les équipes qui gagnent, peut-on identifier dans les données quelque chose d’autre qui viendrait en plus de la somme des actions individuelles ?

La modélisation prescriptive est extrêmement difficile et n’existe pas encore en tant que telle, mais bien sûr, on peut déduire des éléments de ce que nous savons de manière prédictive. Pour donner un exemple évident, puisque la différence d’xG est fortement prédictive du succès de l’équipe, alors si votre tactique et stratégie maximisent votre xG créé et minimise votre xG concédé, vous avez plus de chances de réussir à long terme. Mais tout comme pour le scouting, l’application négative peut être encore plus puissante : si votre style de jeu limite les xG que vous produisez, vous ne devriez probablement pas le faire. Ce qui est juste une façon de dire que vous ne devriez pas acheter Andros Townsend.

Si tu devais mettre à jour ta boîte à outil, qu’ajouterais-tu ?

Pas grand-chose, en fait. J’essaye de travailler autant que possible en Python au détriment de R, que je déteste. J’ai abandonné matplotlib, et utilise exclusivement ggplot2 pour visualiser les données - il y a un portage Python http://ggplot.yhathq.com/. L’analyse bayésienne est l’outil majeur que j’ai appris depuis que j’ai écrit cet article, j’utilise Stan http://mc-stan.org/ pour cela. Je me suis également éloigné d’AWS pour la plupart de mes besoins informatiques et j’utilise des fournisseurs “baremetal” moins chers.

Pour mes lecteurs (et pour moi) et aussi parce que c’est un blog sur l’Olympique de Marseille, pourrais-tu nous dire où se situent Florian Thauvin, Morgan Sanson et Valère Germain en termes de qualité de passe et de finition ?

Le modèle de passes positionne Thauvin dans le 39e percentile (1er est le pire, 50e moyen, 100e meilleur), Sanson au 27e et Germain au 41e, donc pas terrible. Est-ce qu’ils tentent beaucoup de passes difficiles ? Si oui, ça peut être une raison, le modèle préfère les passeurs prudents. Je suis actuellement en train de retravailler le modèle de finition, mais pour le moment, Sanson et Germain sont dans la moyenne et Thauvin un peu mieux que ça.

Enfin, quelque chose que tu voudrais ajouter ?

Nope.

Marek présentera une nouvelle étude à l’OPTAPro forum en février prochain, vous pouvez le retrouver d’ici là sur son compte twitter et lire ses précédents articles via les liens suivants:

https://statsbomb.com/author/marekkwiatkowski/

http://www.optasportspro.com/about/optapro-blog/?author=Marek%20Kwiatkowski`

########English######

Hi Marek, for those who don’t know you can you please introduce yourself?

Sure. I am 35 years old, Polish, living in Switzerland. In the past I did academic work in theoretical computer science, systems biology and evolutionary ecology. Since 2014 I have been working on football data, first in the well-publicised Brentford analytics project, and then in gambling.

Within the community, you are mostly famous for your work on player skills (passing and finishing models). Besides that and without revealing any secrets, what have you been busy with in terms of football analytics? 

My last job was all about team-level analysis, and we have developed quite sophisticated team rating systems. And as always in any serious analytics operation, there is significant overhead in creating and maintaining a data infrastructure, and that’s been eating a lot of my time too. Unfortunately, I haven’t had much time recently for personal projects, but that is changing.

What tend to be your preferences, what do you enjoy the most doing in this field?

A strange answer perhaps, but I enjoy discovering new methodologies and figuring out how they can help me understand the game of football better. I have no formal training in statistics, and so a lot of the machine learning techniques that I encounter by reading the work of others or textbooks or just googling trying to find a solution to a problem are genuinely fresh and exciting to me.

Another thing that I find exciting is modelling with big datasets, with tens of thousands of games and millions of on-the-ball events. This way you can not only cut through sample size problems in many cases, but also derive insights about the game that are truly general. Of course, decent data engineering and sometimes also cloud computing skills are required for this kind of work, but my computer science background has given me a platform to learn these quickly.

What is your opinion about the current analytics production - public or private from what you know (besides too much xG)? I’m under the impression that public work is more advanced in the US sports world but I’m not really sure why. For example, besides your work, I haven’t seen much of this type of analysis

I can’t speak about what is happening inside clubs or other football quant operations these days because I simply don’t know. Apart from descriptive analytics which is often of good quality, my opinion of the current public production, is low. There is a kind of reverse survivorship bias here, in that the very good modellers and analysts do get hired eventually and disappear from the public pool, but even accounting for this effect, the public stuff has been disappointing in the last few years.

Part of the reason may be that because all of it unfolds on Twitter, the incentives are very skewed, and snappy takes and flashy graphics are rewarded faster and more reliably than serious, in-depth work.

Then there is the sheer difficulty of the methodologies needed for state-of-the-art modelling of sports data. The two examples that you linked use generalized linear mixed models and Bayesian MCMC simulations – these are not learnt in an evening! With a PhD in a quantitative discipline and a decent amount of free time it still took me months to become a confident user. So it is unreasonable to expect every fanalyst to deploy this kind of heavy-duty machinery, but the fact remains that for serious predictive work you have to.

Where do you see the biggest impact of statistics within a football club (transfers, starting XI selection, tactics incl. opposition scouting, …)?

In the case of on-the-ball event data, I think it’s mainly performance evaluation and the transfer market. (I have little experience with physical performance or positional data, so can’t really speak to that.) The analytics tools that we have available, including in public, are so robust on the team level that it’d be negligent for the decision-makers at the clubs not to use them to keep an eye the performance of their team. And while I am sure that many do, we regularly get news items so utterly inconsistent with the analytical approach that it is clear that equally many still don’t.

I address the scouting applications below;

as to tactics, selection and (to a lesser degree) opposition scouting, I am skeptical, again especially if we’re still speaking about on-the-ball data. We have to remember that first, event data gives us far from a complete picture of the game. In particular player positioning and runs are missing, which in my opinion precludes any detailed tactical analysis. Second, player-level analytics based on individual player stats is less advanced and less robust than team-level, because we still have not forged a sufficiently strong link between individual output and team performance. That is not to say that player stats aren’t useful, far from it, but I would not expect them to play a central role in, say, team selection in the same way I would look at expected goals totals and trends before anything else when analysing team performance.

I have the opinion that the football transfer market remains inefficient and that statistical scouting can still give a hedge for clubs to find value. Would you agree with that? 

Yes, although I am duty-bound to emphasise that statistical analysis works best when it complements the traditional methods, not replaces them. I point out above that player analytics is problematic, but in fact a few principles are well enough established to help with scouting. In addition, you can always use data to address specific questions about a player. But the single biggest benefit that stats can bring to a scouting operation is identifying costly mistakes before they are made. So many transfers are made for reasons easily disproven by statistics, or are just bad on their face due to the player’s style of play, age, current team circumstances, etc. that if the clubs had just one statistician – and listened to them! – they could save themselves millions of euros annually.

To build on the latest question, is there an exciting “relatively unknown” player that we should all watch based on what you’ve found in the data? Could you elaborate? (I find it amazing that your passing model revealed Ruben Aguilar in French Ligue 2 who is now being pretty successful with Montpellier).

If there was one, I wouldn’t be telling! But the prosaic truth is that I have been so singularly focussed on team-level work recently that I don’t have a spreadsheet of players full of delicious metrics to sort by. Yet.

Have you been able to identify age effect in finishing and passing ability?

There definitely is an age-linked effect in the pass completion model, in the sense that you can throw in player age as a predictor and it comes out as statistically significant. Whether it really corresponds to skill developing with age, or maybe player roles changing with age, is a matter of interpretation. I haven’t tried the same with the finishing model, but suspect a similar result.

What about assessing defensive qualities? Are we now able to scout a Centre Back based on data? I’m a big fan of PATCH, do you see anything else that could be relevant?

PATCH is great and probably the best you can do semi-quickly with event data. In general, defending is an area where control of space, positioning, co-ordination of players, etc. is of greater importance that in attack, and consequently assessing defensive performance is harder with event data. Personally, I am able to classify centre backs, which can already be useful if you know what kind of player you’re looking for (destroyer, sweeper, ball-playing, etc.); but I can’t identify skilled players. But that’s just me.

Do you think data companies are missing something when collecting data? If yes what?

Every data spec is an exercise in compromise, and every dataset is going to miss something. That’s just life. As an example, when I worked on passing, I really wished I had some indication of what the passer’s intention was – did he mean to go short or long, which player was he trying to pass to, at which position? But that would require significantly more work during collection, so someone somewhere made the decision that this was not going to be collected.

Are tracking data the alpha and omega of football statistics? I know that you tend to think there is still a lot to do with current event data. So logically I’ll also have to ask you where are we on the new kind of analytics journey?

There is certainly a lot left to be done with event data (even if I don’t know myself what that should be), and insights from event data are yet to be widely applied in clubs. But it is the tracking data that gives you the complete picture of what actually happened, and in this sense it is the logical endpoint.

However, and here let me get on my favourite hobby-horse, we need some kind of theoretical and conceptual framework before we can make sense of that data. It is what I argued for event data in the article you link, but the situation is even more dire in the case of tracking. What are the important variables? What is the unit of analysis? We just don’t know. One way around this would be to borrow concepts from coaching, but event data work was the most successful when it challenged the established notions of what is and what isn’t important, so I’m not such a big fan of the idea, although it would certainly help with adoption.

How would you approach decision making modelling in Football? Martin Eastwood has built a nice tool last year, do you think of anything that could be done differently / added to it?

It feels like the answer to this is scattered in the answers to other questions.

What football issues could be tackled with Neural Networks and not with more classic statistical tools either in the frequentist or Bayesian paradigm? Is it only an accuracy improvement comparing to these tools here?

This is an excellent question that I have been asking myself for some time, even though I haven’t worked with neural networks since university. First of all, if you have two comparable models of the same aspect of football, one based on neural networks/deep learning and the other a traditional statistical approach, you should opt for the latter even at the expense of precision, because in this way you can actually interpret the outputs. So it’s not about model accuracy for me at all.

However, football is so complex that there is real potential in a deep learning approach to capture some of the underlying principles that we have not yet discovered with traditional statistical approaches because we lack the vocabulary to postulate them. The link between the player output and team performance that I mentioned before could be one such target for a neural network.

Another possibility could be the analysis of tracking data - as I argue above, the conceptual universe of football analytics is so poor that the lack of interpretability of neural network models doesn’t set you back all that much and you could do worse than just chuck some of that data at a network, ask a few simple questions and see what it’s telling you. Not the ideal way of doing research admittedly, but what can you do.

I haven’t read much from an analytics perspective about what makes a team successful, is there something else on top of individual actions that we can find in the data?

Prescriptive modelling is extremely difficult and doesn’t really exist yet as such, but of course you can infer bits and pieces from what we know predictively. To give an obvious example, since xG difference is strongly predictive of team success, then if your tactics and strategy maximise your xG created and minimise conceded, then you are more likely to be successful long term. But just as with player scouting, the negative application can be even more powerful: if your style of play limits the xG you produce, you probably shouldn’t be doing that. Which is just a long-winded way of saying that you shouldn’t buy Andros Townsend.

If you had to write an update to your toolbox, what would you add?

Not that much, actually. I’m trying to do as much as I can in Python at the expense of R, which I detest. I have abandoned matplotlib though, and use exclusively ggplot2 to visualise data - there is a Python port http://ggplot.yhathq.com/. Bayesian analysis is the one major tool that I have learnt since, I use Stan http://mc-stan.org/ for that. I have also moved away from AWS for most of my computing needs and use the cheaper “baremetal” providers.

For my readers (and myself), and because it’s also a blog about Olympique de Marseille, could you tell us where Florian Thauvin, Morgan Sanson and Valère Germain stand as of today, in terms of passing and finishing ability?

The passing model has Thauvin in the 39th percentile (1st is worst, 50th average, 100th best), Sanson in the 27th and Germain in the 41st, so not so great. Do they attempt a lot of difficult passes? If so, this may be why, because the model like safe passers better. I am currently reworking the finishing model, but for the moment have Sanson and Germain dead average, and Thauvin a bit better than that.

Finally, anything that you would like to add?

Nope.

Marek will be presenting at the OPTAPro forum next February but in the mean time, you can find him on twitter and read his previous work here:

https://statsbomb.com/author/marekkwiatkowski/

http://www.optasportspro.com/about/optapro-blog/?author=Marek%20Kwiatkowski`