Les problématiques du SEO avec les Single Page Apps et leurs solutions

17 mai 2021

En 2021 on ne présente plus le SEO (“Search Engine Optimization”). Véritable moteur pour de nombreuses entreprises (e-commerce, référenceurs spécialisés…), il peut aussi être un gros plus pour n’importe quel autre type de société, pour se faire connaître et/ou obtenir des offres commerciales, etc.

Optimiser son placement sur les moteurs de recherche est tout un domaine d’expertise… Pourtant extrêmement peu enseigné en école et parfois peu pris en compte lors des développements. 

C’est ainsi qu’il arrive que des ratés aient lieu, et ce notamment avec les SPA (sous React, Angular ou encore VueJS). En effet, ces technologies récentes ne sont pas vraiment compatibles par défaut avec les robots de parsing des moteurs de recherche. Nous allons voir en quoi et pourquoi, mais aussi les solutions à mettre en œuvre pour contrer ces problématiques.

Pourquoi les moteurs de recherche ont du mal avec les SPA ?

Mettons nous du point de vue de Google, Bing et les autres : il faut mettre en place un robot qui va parcourir tout internet, chaque jour idéalement pour être au plus pr ès de l’actualité. Un tel robot n’est pas gratuit, et encore moins s’il doit “parser” du JavaScript.


En effet, historiquement une page Web se récupère avec une simple requête réseau. Pour un robot, il suffit ensuite de lire le contenu puis l’ajouter dans une base de données, ce qu’on appelle en SEO l’indexation. S’y ajoute l’algorithme de placement pour comparer différents sites sur un même sujet et ainsi déterminer qui décroche la position n° 1, le graal en référencement. Et c’est tout ! Le coût de ces opérations est quasi-équivalent au temps de l’appel réseau, soit un ordre de grandeur d’environ 50 à 200 millisecondes. 



Dans le cadre d’une Single Page App au contraire, en plus de récupérer ce document HTML, il faut aller chercher les dépendances qu’il renseigne : les fichiers JavaScript, puis les exécuter dans un moteur JavaScript… que l’on appelle plus communément un navigateur. Une fois le tout fait, ça y est, le robot peut indexer le contenu. L’ordre de grandeur en temps passe ainsi ici à la seconde, voire la dizaine de secondes. Il faut aussi compter le coût en processeur et mémoire pour exécuter le JavaScript… Pour faire simple, on n’est plus du tout à la même échelle !


Concrètement quel est le risque en se lançant sur une Single Page App d’un point de vue SEO ?

C’est la raison pour laquelle il semble qu’hormis Google, aucun moteur de recherche n’indexe les applications JavaScript. C’est-à-dire que le site ou l’application ainsi mise à jour vers ces nouvelles technologies, depuis un monolithe classique par exemple, disparaîtra complètement des radars (hors celui de Google) !



Pour faire cette affirmation, chose toujours compliquée en SEO, je me base sur une étude en conditions réelles faite en 2017, dont voilà la conclusion en une image (qui est toujours valide mi-2021) :

À noter qu’Angular 2 avait à l’époque un problème, même avec Google, ce n’est probablement plus le cas pour la dernière version de ce framework actuellement ( source de l’étude  et vous pourrez trouver le  test en conditions réelles ici , toujours  accessible sur internet ). Qwant ou Ecosia ne semblent pas avoir indexé ces applications non plus, l’intérêt c’est qu’on peut le vérifier par nous même !

“Oui mais Google c’est 90 à 95 % de part de marché” me direz-vous, ce n’est peut être pas vraiment une grosse perte ? Cela va dépendre de votre population cible. Si ce sont des personnes plutôt “geeks”, ces dernières auront tendance à plutôt utiliser DuckDuckGo ou autre moteur de recherche plus respectueux de la vie privée (une tendance qui prend de plus en plus d’ampleur de manière générale d’ailleurs). Si au contraire ce sont des personnes peu habituées avec l’outil informatique, il est plus probable de les trouver en grand nombre chez Bing, le moteur par défaut livré avec Edge et Windows. Tenir ce discours peut donc paraître assez risqué.


Je me base une nouvelle fois sur des données à ma disposition : je possède un blog où j’écris des critiques sur des films, des tutoriels sur jeux vidéo ou encore des articles de vulgarisation scientifique. Le thème est donc un peu “geek”. Or, un tiers des entrées ont lieu depuis d’autres moteurs de recherche que Google, on est assez loin des 90% de part de marché !


“Quid de l’avenir” ? Puisque les SPA fêtent leurs 10 ans et sont maintenant extrêmement populaires, il semble assez clair que la plupart des moteurs ne vont probablement pas chercher à supporter les coûts d’exécution du JavaScript avec leur robot, sinon ça serait déjà fait. Il vaut donc mieux chercher des solutions pour contrebalancer ce problème (le fait que ces solutions existent maintenant est peut être une raison de plus pour que ces moteurs ne cherchent pas plus loin).


À noter par ailleurs que tout partage de lien sur les réseaux sociaux (ou un Slack, etc.) affiche normalement une miniature avec une image et un peu de texte. Avec une SPA classique, ces miniatures sont entièrement vides pour la même raison que vue précédemment : Facebook ou Twitter ne vont pas s’embêter à exécuter un moteur JavaScript entier pour afficher une simple image avec une phrase. Exemple concret avec les images ci-dessous :

Une miniature classique sur Facebook 

La même miniature si Le Gorafi devenait soudainement une SPA du jour au lendemain sans adaptation : on a bien moins envie de cliquer ! Le titre, l’image ainsi que la description en gris ont disparu. Le même constat peut d’ailleurs se faire sur Google avec la petite description en dessous de chaque lien qui sera manquante. 

Quelles solutions pour garder des pratiques modernes de développement avec le SEO ?

Heureusement les équipes et communautés derrière les frameworks et librairies pour construire les SPA ont bien eu conscience de ce problème et ont mis en place des solutions, qui sont maintenant clairement considérées comme fiables avec la nouvelle décennie. C’est ce qu’on appelle le “Server Side Rendering” ou “rendu côté serveur” (SSR). 

Cela peut sembler comme un retour en arrière à première vue, mais selon la technologie on se retrouve plutôt avec le meilleur des deux mondes : des applications hybrides avec un rendu côté serveur puis une SPA qui prend le contrôle une fois la première page chargée par l’utilisateur – ou un site statique, construit et généré avec les outils modernes de développement JavaScript.

Pour React les plus connus sont  Next.js  et  Gatsby , qui sont maintenus par la communauté :


  • Le premier permet ce type d’application hybride, proposant en même temps tous les bénéfices en termes UX des SPA et des sites Web classiques. 

  • Le second cherche plutôt à concurrencer les CMS comme WordPress en offrant un site statique et les plugins correspondants. 

Pour Angular il faut regarder du côté  d’Universal , maintenu par l’équipe du framework. Quant à VueJS, ils proposent  une solution native à la librairie .


Dans tous les cas, ces solutions sont à prendre en compte et à implémenter dès le début des développements, on s’expose sinon à des coûts de migration qui peuvent être assez lourds. En effet ces frameworks agissent comme des surcouches aux outils pour construire les SPA, il faut donc effectuer pas mal de changements. Mais s’ils sont mis en place dès le début, le surcoût en développement sera quasiment invisible.

Conclusion


 Le monde du développement Web a énormément évolué ces 10 dernières années. De nos jours même l’hégémonie de WordPress est remise en jeu par des frameworks comme Gatsby à travers React. Il y a quelques années, comme en 2017 lors de l’apparition d’Angular 2, le SEO était une problématique majeure de ces nouveaux outils qui empêchait leur utilisation universelle. Mais ce n’est maintenant plus le cas, lorsqu’on a conscience des changements à apporter par rapport aux frameworks “vanilla”. 


Les techniques de rendu SSR s’imposent en effet de plus en plus et à juste titre, car en plus du SEO, la magie de ces outils permet d’avoir un Web de plus en plus rapide et de plus en plus pratique dans son utilisation ! Le tout en conservant le confort de développement apparu il y a 10 ans avec les SPA.

Ressources Agaetis

par David Walter 6 novembre 2025
Project Context Michelin aimed to develop a new generation of digital services based on data from connected tires. The goal was to deliver added value to truck fleet managers and maintenance centers worldwide. The challenge lay in the collection, processing, and supervision of massive sensor data, while ensuring robustness, scalability, and relevance of analytics. Objectives The main objective was to establish a technical and architectural framework to: Efficiently collect and process data from connected tires Monitor data flows and measure the impact of business use cases Create a Big Data platform ready to evolve with growing data volumes Mission Duration A long-term engagement , combining initial architectural study, implementation of monitoring systems, and ongoing support. Implementation Agaetis leveraged its Data and Cloud expertise to: Initial architecture study: Define technological and structural choices Platform monitoring: Implement monitoring principles to ensure robustness and availability Load analysis: Evaluate the impacts of various business use cases Big Data framework definition: Integrate best practices to accelerate implementation Data Science work: Perform domain-specific analysis and develop new indicators and services Results Achieved New digital services: Creation of innovative solutions for fleet managers Robust and scalable platform: A Big Data environment ready to handle massive data volumes Operational optimization: Improved traceability and KPI tracking Enhanced innovation: Data transformed into strategic levers for Michelin Key Success Factors Agaetis’ expertise in Big Data and IoT data processing End-to-end methodology: From architecture to Data Science Immersion in the client’s business environment Proactive supervision ensuring robustness and reliability  And You? Are you wondering about: Leveraging data from your connected equipment ? Creating new digital services based on Data? Implementing a robust and scalable Big Data architecture ? 👉 Contact our experts to transform your IoT data into innovative, value-generating services.
par David Walter 6 novembre 2025
Project Context France’s first research foundation dedicated to innovation in pain management aimed to launch a market-ready application resulting from its clinical research and development program. The goal was to transform the app into a Digital Therapeutic (DTx) reimbursed by the national health insurance system. Objectives The organization focuses on driving healthcare innovation through extensive collaborations with hospitals, research institutes, universities, and technology companies. The main challenges included: Transforming an application into a Digital Therapeutic (DTx) reimbursed by the national health system. Managing the transition of patients to this new platform. Preparing a new data warehouse to support scientific research. Mission Duration 3 collaborators over 3 years Methodology Agaetis provided its expertise through targeted and structured actions: Audit of existing systems: Evaluation of current infrastructure to identify needs and areas for improvement. Decision support for partner selection: Assistance in choosing competent and reliable technology partners. Technology advisory: Guidance on application architecture, security, and scalability to ensure long-term viability. Results Achieved Development of an application supporting patients in chronic pain management, progressing toward recognition as a reimbursable DTx. Rigorous technical assessment and selection of strategic partners. Adherence to roadmap milestones , ensuring steady progress and alignment with expectations. This project highlights how Agaetis leverages its technological and strategic expertise to transform challenges into innovative, effective solutions — creating tangible value for clients in the healthcare sector.
Show More