Blogg
Mastering SEO Audits – Unlocking Insights with the Screaming Frog SEO SpiderMastering SEO Audits – Unlocking Insights with the Screaming Frog SEO Spider">

Mastering SEO Audits – Unlocking Insights with the Screaming Frog SEO Spider

Alexandra Blake, Key-g.com
av 
Alexandra Blake, Key-g.com
13 minutes read
Blogg
december 10, 2025

Rekommendation: börja med en dumpning av krypdata och tagga de största problemen direkt. Kör Screaming Frog på din webbplats, exportera sedan en CSV som parar varje URL-sökväg med status, omdirigeringar och kanoniska signaler. Behåll detta som källan för publicering av åtgärder och för det du delar med redaktörer och utvecklare. Bekräfta att varje viktig sida finns i krypresultaten. Själva krypdata innehåller tidsstämplad bevisning.

Använd regex filter för att separera issues genom typ (o-dirigeringar, saknade taggar eller trasiga tillgångar) och jämför choices fr . Filtrera efter URL path och genom statuskod för att snabbt upptäcka mönster. Teamet kan markera issues betraktades som hög prioritet för att snabba upp lösningen.

Verifiera protokoll signaler och kanoniska path mapping: säkra http leder till https, nedsänkt paths align with source kod, och publicering arbetsflödet använder konsekvent länkning. Detta håller krypningar rena och minskar falska positiva resultat.

Revidera organiska tillgångar: titlar, metabeskrivningar, sidhuvudtaggar och bilders alt-texter. Spåra ändringar med en levande kontrollista och tips for innehållsägare. För en logg över åtgärder och mät inverkan i organiska rankningar på veckobasis.

Automation helps scale audits: schedule saved checks, generate tips-drivna rapporter och presentera en main dashboard som visar Öppna, Åtgärdade och Nya issues. Bygg en arbetsflöde som låter det user välj prioritet, tilldela ägare och övervaka framstegen, med en self-kontrollera för att verifiera ändringar.

För stora webbplatser, dela upp krypningen efter sökväg och staggera begäran för att undvika kraschar. Om en crawl strular till, starta om med reducerad djup, och slå sedan samman resultaten. Använd regex to constrain the scope and keep the dump kompakt för att dela med teamet.

Håll ett öga på publiceringspipelinen: länkvalidering, kanonisk disciplin och omdirigeringsregler. Genom att behandla Screaming Frog som ett basverktyg och kombinera det med ett lättviktigt protokoll för datadelning, kan du förbättra noggrannheten i dina granskningar och påskynda beslutsfattandet för innehållsteam.

Riktade steg för att analysera hur val av User-Agent påverkar crawl-resultat och datasignaler

Riktade steg för att analysera hur val av User-Agent påverkar crawl-resultat och datasignaler

Börja med att välja två huvudsakliga User-Agent-strängar (Googlebot Desktop och Googlebot Smartphone) och kör en parallell krypning, och se till att resultaten sparas i studion med explicita etiketter för varje UA.

Sätt samma omfång: djup, underdomänstäckning och krypningsläge; använd en visualiseringsmetod med kraftriktad layout för att identifiera hur interna sökvägar skiljer sig åt mellan användare (UAs) och vilka sidor som får fler förfrågningar från varje UA.

Inkludera väsentliga signaler: status, svarstid, sidtitlar, rubriker, interna länkar och PageSpeed-poäng; anpassa data så att du snabbt kan jämföra över de två User-Agentarna, vilket gör insikterna mycket handlingsbara.

Undersök skillnader i statuskoder och resursförfrågningar mellan olika användaragentenheter; identifiera sidor som Smartphone-användaragenten blockeras eller betjänas annorlunda av robots.txt, och notera eventuella innehållsvarianter som visas under den användaragenten.

Omvandla observationer i realtid till sparade ögonblick och uppdateringar; spåra förändringar över tid och omvandla dem till en koncis uppsättning resurser för dem, publiken, med tydliga riktlinjer för grammatik och dataformat som intressenter kan agera på.

Strukturera resultaten per plattformkluster, jämför rubriker och innehållsblock och använd valda inställningar för att testa ytterligare lägen eller UA-strängar; detta inkluderar PageSpeed, formulärfält och andra signaler för att verifiera konsekvens över plattformar.

Omvandla resultaten till konkreta åtgärder: prioritera sidor med innehållsrikt material, anpassa efter målgruppens behov och publicera en utvald sektion i din rapport som inkluderar en exekutiv sammanfattning och en praktisk kontrollista för kommande iterationer.

Välj rätt User-Agent för krypningar och bedöm dess åtkomstimplikationer

Använd Screaming Frog SEO Spider's standard User-Agent för en kontrollerad granskning. Ställ in ett lätt crawl-avtryck för att balansera hastighet och noggrannhet. Istället för att bombardera en webbplats, begränsa förfrågningar, starta med viktiga sidor och expandera gradvis. Denna metod hjälper dig att regelbundet kontrollera åtkomstsignaler, implementera tydliga strategier och prioritera webbplatsens viktigaste avsnitt.

Bedöm åtkomstimplikationer genom att testa flera User-Agent-varianter: standard Screaming Frog Spider, Googlebot och en mobil User-Agent. Detta avslöjar hur tillgänglighet och indexeringsytor skiljer sig åt, och hjälper dig att mäta storlek och latens över skrivbords- och mobilsektioner. Genom att samla in otroligt exakta signaler kan du snabbt jämföra statuskoder, hantering av rubriker och kanoniska taggar, och mata resultaten i revisioner och uppdatera dina slutgiltiga beslut. Använd uppdaterade server-svar för att implementera strategier med prioritet till kritiska sidor, och vägleda dina webbplatsidéer om krypningseffekt.

Implementera en konkret testplan: kör en baslinje-crawling med standard User-Agent, registrera mätvärden för hastighet, noggrannhet och felkvoter; byt sedan till en mobil User-Agent för samma omfattning och jämför. Uppdatera regelbundet crawlingsomfattningen för att förhindra överbelastning och hålla tillgänglighetskontrollerna aktuella. Denna process ger underlag för beslutsfattande. Om du har uppdaterat en webbplats, använd resultaten för att förfina strategier och dokumentera de slutgiltiga besluten med tydlig motivering. Denna process hjälper till att upptäcka problem som blockerade tillgångar, felaktigt konfigurerade canonicals och luckor i sitemappen, vilket stöder pågående revisioner.

Användaragent Åtkomstimplikationer Best use Pros Cons
Screaming Frog SEO Spider (default) Follows robots.txt; throttling controls; good for internal structure Regular audits of pages, canonicals, and internal links Accurate on-page signals; fast for small sites May miss external references if blocked by rate
Googlebot (simulated) Gives search-engine perspective; could be blocked by robots or throttle Assess indexability and header handling Realistic access signals Policy limits; can’t fetch blocked content
Mobile User-Agent Tests mobile rendering and response times Accessibility for responsive and AMP pages Reveals mobile-specific issues quickly Requires additional configuration and separate scopes

Configure Crawl Settings for scope, speed, and politeness

Start with scope: define targets, set a crawl scheme, and limit folders you want to scan. Add the relevant URLs and use Include patterns that reflect the paths used by different users. By narrowing the scope, you keep the crawl focused and ensure the results are actionable.

Set scope controls to avoid drift: filter by scheme (https only), restrict to chosen folders, and cap crawl depth to 3–5 levels for a first pass. This helps you understand the structure quickly and prevents unnecessary hits on unrelated areas.

Politeness and speed: configure max threads and crawl delay to avoid overwhelming the server. A safe starting point is 4 max threads with 1–2 requests per second; monitor analytics to confirm the server stays responsive, and never exceed what the host can tolerate. If you operate on staging, you may be able to push higher temporarily, but keep it controlled.

Canonicals and attributes: enable Crawl Canonicals to capture canonical signals and review the rel=canonical attributes on pages. This reduces duplicate signals and improves the quality of your pivot when comparing pages across folders and schemes.

Scope, performance, and data quality: limit the crawl depth to 3–5 levels and use Include/Exclude rules to target the most valuable folders. With this setup, you can run a focused audit without losing sight of site-wide patterns. Most teams find that a concise scope leads to faster, more reliable results.

Analytics and outcomes: use analytics to track response times, status codes, and the distribution of discovered pages. Export the data for a thorough assessment, and note the opportunity to optimize crawl settings for subsequent runs. The analytics will show you which pages demand attention and what strategies yielded the most reliable data.

Changes and iteration: after the crawl, review changes and discovered issues by folder. You can re-run only the changed folders to speed up the process and keep the effort manageable. Pivot as needed to test new strategies and validate improvements against the baseline.

Tutorials and documentation: consult tutorials to align with best practices for canonical handling, schema usage, and crawl patterns. This helps you build a scheme that is reusable across projects, and it reveals the most effective approaches without guesswork. The opportunity to learn from proven workflows is clear, and you can understand how to apply these lessons to your site structure.

Organization and reuse: save your configuration as a crawl scheme, so you are able to reuse it on future audits. Store results in clearly named folders and maintain a consistent workflow, ensuring stakeholders receive a coherent dataset. When the crawl is done, you have a ready reference that you can share and iterate on.

Most importantly, the right balance between scope, speed, and politeness yields reliable results. The approach that worked best for your site will depend on targets, server tolerance, and the analytics you collect – so never hesitate to adjust and use a comparison against prior crawls to quantify progress. When the crawl is done, you will have identified changes and an ongoing opportunity to refine your SEO strategies, confirm canonicals and attributes alignment, and uncover insights that you can store in folders for easy access. You are able to navigate these steps without disruption to live pages, and you can keep discovered insights organized for colleagues and audits.

Analyze HTTP Status Codes, Redirects, and URL structure across the crawl

Export a crawl-status report and act on non-200 statuses, redirects, and URL anomalies before proceeding. Apply the required configurations: default redirect rules, accurate status-code mappings, and a clean 404 handling setup. This approach yields faster fixes and informs your team here, enabling you to align actions with your targets and ranking goals, issues come from misconfigurations and are addressed quickly.

Review the count of duplicated URLs and their targets. Flag 4xx and 5xx responses that harm user experience, and prune deprecated paths. Ensure canonical tags point to the default version you want to rank, so the serving URL remains consistent. When changes land, inform stakeholders so theyre aware of the impact, and track results to understand how crawl metrics shift.

Evaluate redirects: confirm that relnext is ticked on paginated series and that redirects lead to pages above the fold in the crawl graph. For each 3xx, verify why it occurs and whether it preserves value instead of creating loops. Keep an eye on default behavior for 301s vs 302s, and count how many redirects are chain-linked, which can harm crawl efficiency. This process is extremely helpful for long-term stability.

Screen the URL structure across the crawl: check contain and ensure URLs do not exceed recommended length, avoid ambiguous characters, and verify that required parameters are used to filter content instead of duplicating pages. Ensure URLs contain clean, descriptive paths and avoid deprecated query strings that produce duplicate content. Use the count and configurations to document changes, which helps you understand how URL structure supports serving the right content and preventing ranking confusion.

Validate On-Page Elements: Titles, Meta Tags, H1 usage, and Canonical Tags

Begin with a focused audit of titles, meta tags, H1 usage, and canonical tags using Screaming Frog. Crawl HTML only, export issues with columns URL, Title, Meta Description, H1, Canonical, Status, and Type. Set the user agent to mimic googles protocol to reflect how pages appear in search results. Identify loops in internal linking that create duplicate appearance, and flag pages with missing or conflicting canonical tags. Fix issues in small batches, then run updates to confirm the changes took effect.

Titles and meta tags: ensure every URL has a unique, descriptive title and a relevant meta description. Aim for the shortest safe length in your context–roughly 50-60 characters for titles and 120-155 for descriptions. Avoid duplicates; if you have multiple pages on a topic, writers can craft distinct titles that still follow a consistent pattern (for example, Brand | Topic). Use the provided parameters when needed to tailor title variants, and test different options before publishing. Writers have small choices in wording to improve CTR and appearance in search results. Examples help validate which variants perform best across pages and templates.

H1 usage: enforce a single H1 per page and place the main keyword there. Use H2-H6 to structure content and keep the flow natural for readers and crawlers. If you run a content module, use either a single-page approach or module-based pages, ensuring the visual hierarchy remains clear.

Canonical tags: there should be a canonical link on every page that points to the preferred URL. Follow googles protocol for canonicalization to avoid duplicate indexation. The canonical URL should reflect the site-wide preference (for example, https over http, www over non-www) and handle parameters by directing to the clean URL. Check that self-referential canonical exists, and ensure no page points to a different canonical that creates a loop.

Validation and workflow: after applying fixes, re-crawl to verify improvements. Use a loop of checks: compare before/after, note updates, and adjust as needed. Maintain a concise audit log with examples of changes and the reasoning. Provide recommendations to writers and developers, and, when possible, implement changes directly in the CMS or site code. Then repeat the process on new pages and monitor the site over time with periodic updates.

Leverage Custom Extraction and JavaScript Rendering to uncover hidden issues

Leverage Custom Extraction and JavaScript Rendering to uncover hidden issues

Render with JavaScript rather than rely on static HTML, and use Custom Extraction to pull dynamic values that influence indexation and user experience. This approach shows that the rendered DOM contains much more data, enabling visualization of what pages serve to users and search engines, making it easier to find something that basic crawls miss.

Configure three focused extractions to cover essential signals without overloading your workflow:

  • Rendered H1 text and page title
  • Robots directives and noindex presence in the rendered DOM
  • Alternate language links and canonical URL

How to set this up in Screaming Frog efficiently:

  1. Enable JavaScript Rendering under Configuration > Spider > Rendering and choose Chrome-based rendering; this makes downstream data available for extraction.
  2. Add three Custom Extraction rules using CSS Path or XPath:
    1. Rendered H1 and title: extract text from h1 and title elements in the rendered HTML.
    2. Noindex and robots: read the content attribute of meta name=”robots” and any X-Robots-Tag signals from the rendered DOM.
    3. Alternate and canonical: pull href from link[rel=”alternate”] and link[rel=”canonical”].
  3. Kör genomsökningen och granska fliken Anpassad extrahering för att verifiera att varje regel innehåller förväntade värden; om något saknas, justera väljarna och kör om.
  4. Exportera resultat med Exporteraknappen för att skapa en exporterad fil som du kan dela med kollegor eller klistra in i en studioutforskare.

Tolkningen av resultaten vägleder välgrundade beslut:

  1. Jämför återgiven innehåll med statisk HTML för att identifiera dolda signaler; om den återgivna DOM innehåller data som inte finns i den initiala HTML:en, måste du undersöka varför återgivningen avslöjar det.
  2. Om noindex endast visas i den renderade vyn, överväg om en sida bör indexeras eller om renderingen avslöjar en felkonfiguration som blockerar indexering nedströms.
  3. Kontrollera alternativa länkar och kanoniska taggar över sidor; luckor kan leda till motstridiga signaler över webbplatser och språkvarianter.
  4. Relatera resultat till åtgärder nedströms: åtgärda sidmarkering, justera renderingssidan eller leverera viktig information tidigare i svaret för att förbättra påverkan på sidhastigheten.

Praktisk arbetsflöde och inställningar för att maximera täckningen:

  • Använd flera enheters emulering för att upptäcka skillnader; rendering på mobila enheter kan avslöja alternativa innehåll som desktop-crawlers missar.
  • Övervaka prestandaeffekter på sidor för renderat innehåll; sidor med mycket JavaScript kan krypa långsammare, så balansera djup med kryphastighet.
  • Håll baslinjen enkel: börja med grundläggande utdragningar och lägg gradvis till fler fält när du validerar noggrannheten.
  • När resultaten är klara, skapa visualiseringsinstrumentpaneler från den exporterade datan för att ge en informerad överblick för intressenter.
  • Dokumentera resultaten med korta anteckningar och länka till de exakta sidorna; detta hjälper team att fokusera på konkreta lösningar istället för generella rekommendationer.

Fördelarna för webbplatser som förlitar sig på klient-sidans rendering är påtagliga:

  • Avslöja dolt innehåll som påverkar indexeringen, som till exempel något kritiskt som laddas efter den initiala träffen.
  • Visa ej indexerade block som endast är synliga i renderad output, och guida nödvändiga ändringar innan produktionsleverans.
  • Ge fullständiga signaler för alternativa vägar, och se till att användare på alla enheter får konsekvent information.
  • Stöd snabbare, välgrundade beslut med exporterad data och studiokvalitativa instrumentpaneler för tvärfunktionella granskningar.