Sari la conținut

SEO Tehnic: Crawling, indexare, viteza site-ului și structura tehnică pentru Google în 2026

· 13 min lectură· Digital Rocket

SEO tehnic este fundația invizibilă pe care se construiește tot restul optimizării. Dacă SEO on-page optimizează ce vede utilizatorul și link building-ul construiește autoritate externă, SEO tehnic se asigură că Google poate accesa, crawl-a, înțelege și indexa site-ul tău corect. Fără SEO tehnic, conținutul perfect și backlink-urile valoroase nu contează — Google pur și simplu nu le vede.

Un audit tehnic pe 1.000 de site-uri arată că 42% au probleme de indexare care le împiedică paginile să apară în Google. Cele mai frecvente: pagini blocate de robots.txt, canonical tags greșite, conținut duplicat neadresat și sitemap-uri incomplete. Sunt probleme silențioase — site-ul arată perfect pentru utilizator, dar Google vede altceva.

Cifră cheie: Google crawl-ează miliarde de pagini zilnic, dar bugetul de crawl (crawl budget) per site e finit. Un site cu 500 de pagini dar cu 2.000 de URL-uri generate de filtre, parametri și paginație forțează Googlebot să piardă bugetul pe pagini irelevante — și paginile importante rămân neclawl-ate săptămâni.


Ce este SEO tehnic și ce acoperă?

SEO tehnic cuprinde toate optimizările legate de infrastructura site-ului care afectează modul în care motoarele de căutare descoperă, accesează, crawl-ează, înțeleg și indexează conținutul tău.

Componentele SEO tehnic:

ComponentăCe faceDe ce contează
CrawlingGooglebot descoperă și accesează paginilePagini neaccesibile = pagini inexistente pentru Google
IndexareGoogle adaugă paginile în baza de datePagini neindexate nu apar niciodată în SERP
Structura URLOrganizarea ierarhică a site-uluiURL-uri logice ajută crawling-ul și UX-ul
VitezaCore Web Vitals (LCP, CLS, INP)Factor direct de ranking + experiență utilizator
SecuritateHTTPS, headers de securitateCerință minimă, semnal de trustworthiness
Mobile-firstResponsive design, mobile usabilityGoogle indexează versiunea mobilă a site-ului
Structured dataSchema markup JSON-LDRich snippets, eligibilitate AI Overviews
InternaționalHreflang, geotargetingSite-uri multilingve sau multi-regionale

SEO tehnic nu e sexy — nu produce conținut vizibil și nu aduce backlink-uri. Dar fără el, tot restul se prăbușește. E similar cu instalația electrică a unei clădiri: nimeni nu o vede, dar fără ea nimic nu funcționează.

Diferența dintre SEO tehnic și celelalte componente:

  • SEO on-page: Ce spui Google-ului pe fiecare pagină (title tags, conținut, heading-uri)
  • SEO off-page: Ce spun alții despre tine (backlink-uri, mențiuni)
  • SEO tehnic: Dacă Google poate măcar să ajungă la paginile tale și să le proceseze corect

Fără SEO tehnic, un articol perfect optimizat on-page cu 50 de backlink-uri poate fi complet invizibil în Google — dacă robots.txt îl blochează, dacă are noindex accidental, sau dacă canonical-ul trimite autoritatea pe o altă pagină.


Cum funcționează crawling-ul și de ce contează crawl budget-ul?

Crawling este procesul prin care Googlebot (robotul Google) descoperă și descarcă paginile de pe site-ul tău. Googlebot urmărește link-uri — de la sitemap-ul tău, de pe alte site-uri, din link-uri interne — și descarcă HTML-ul fiecărei pagini.

Crawl budget este numărul de pagini pe care Googlebot le crawl-ează pe site-ul tău într-o perioadă dată. Nu e un număr fix — depinde de: autoritatea domeniului, frecvența actualizărilor, viteza serverului și prezența erorilor.

Factori care consumă crawl budget inutil:

  • Parametri URL: ?sort=price&color=red&page=3 — generează mii de URL-uri care au același conținut
  • Paginație infinită: /blog/page/1, /blog/page/2... /blog/page/150
  • Filtre faceted: eCommerce cu combinații de filtre exponențiale
  • Pagini soft 404: Returnează status 200 dar cu conținut „Niciun rezultat găsit"
  • Pagini duplicate fără canonical: Google crawl-ează ambele versiuni

Soluții:

ProblemăSoluțieImplementare
Parametri URLrobots.txt Disallow pe parametriDisallow: /*?sort=
Paginațierel="canonical" pe pagina 1 sau noindex pe pagini > 5Meta tag per pagină
Filtre facetedNoindex pe combinații de filtreMeta robots noindex
Soft 404Returnează HTTP 404 realServer config
DuplicateCanonical tag pe versiunea principală<link rel="canonical">

Verificare crawl budget: În Google Search Console → Settings → Crawl stats, vezi câte pagini crawl-ează Googlebot zilnic, timpul mediu de răspuns și rata de erori. Dacă Googlebot crawl-ează 500 de pagini pe zi dar site-ul tău are 2.000 de pagini indexabile, durează 4 zile până vede tot site-ul. Pe un site cu frecvență mare de actualizări, asta înseamnă conținut vechi servit zilele în care pagina nu e recrawl-ată.

Sfat: Reducerea paginilor inutile (parametri URL, paginație excesivă, conținut thin) nu doar economisește crawl budget — îmbunătățește calitatea generală a indexului tău în Google. Googlebot tratează un site cu 500 de pagini de calitate diferit de unul cu 5.000 de pagini din care 4.000 sunt duplicat sau thin. Mai puține pagini de calitate superioară = autoritate concentrată = ranking mai bun pe paginile care contează.

Google Googlebot rendering: Din 2019, Googlebot execută JavaScript (rendering engine bazat pe Chrome). Asta înseamnă că site-urile cu conținut generat client-side (CSR) pot fi indexate — dar cu întârziere. Googlebot are două faze: crawl (descarcă HTML inițial) și render (execută JS). Între cele două faze pot trece ore sau zile. De aceea, SSG și SSR sunt superioare pentru SEO — conținutul e în HTML de la prima descărcare, fără a depinde de faza de render.


Cum funcționează indexarea și ce probleme pot apărea?

După crawling, Google indexează pagina — adică o procesează, o înțelege și o adaugă în baza de date. Dar crawling ≠ indexare. Google poate crawl-a o pagină și decide să nu o indexeze dacă: conținutul e thin (prea scurt), e duplicat, are noindex, sau Google consideră că nu aduce valoare unică.

Verificare indexare: Folosește site:domeniultau.ro în Google sau URL Inspection Tool din Search Console pentru a verifica dacă o pagină specifică e indexată.

Probleme de indexare frecvente:

ProblemăCum o detecteziCum o rezolvi
Pagini cu noindex accidentalSearch Console → Coverage → „Excluded by noindex"Verifică meta robots și X-Robots-Tag
Canonical greșitURL Inspection → „Google selected canonical" ≠ canonical setatCorectează <link rel="canonical">
Conținut duplicatSearch Console → „Duplicate without canonical"Setează canonical pe versiunea principală
Conținut thinSearch Console → „Crawled — not indexed"Extinde conținutul sau consolidează paginile
robots.txt blochează resurserobots.txt blochează CSS/JS necesarePermite crawling pe resurse critice
Redirect chainsScreaming Frog → Redirect chains reportSimplifică: A → C direct, nu A → B → C

Atenție la „Crawled — currently not indexed": Această stare în Search Console înseamnă că Google a văzut pagina dar a decis să nu o indexeze. Cauzele frecvente: conținut prea scurt, conținut similar cu alte pagini, site cu autoritate scăzută. Soluția nu e să retrimiți URL-ul la indexare (rar funcționează), ci să îmbunătățești calitatea conținutului și internal linking-ul.


Cum configurezi robots.txt și sitemap.xml corect?

robots.txt și sitemap.xml sunt cele două fișiere prin care comunici direct cu Googlebot.

robots.txt — controlează ce poate și ce nu poate crawl-a Googlebot:

User-agent: *
Disallow: /admin/
Disallow: /api/
Disallow: /*?sort=
Disallow: /*?filter=
Allow: /

Sitemap: https://domeniultau.ro/sitemap.xml

Reguli robots.txt:

  • Nu bloca CSS/JS — Googlebot are nevoie de ele pentru a randa pagina
  • Nu bloca imagini — pierzi Google Images traffic
  • Folosește Disallow pe URL-uri fără valoare SEO (admin, API, parametri)
  • Include referința la sitemap

sitemap.xml — lista tuturor paginilor pe care vrei indexate:

ElementCe faceBest practice
<loc>URL-ul paginiiURL-uri canonice, absolute
<lastmod>Data ultimei modificăriDoar dacă e reală — date false pierd credibilitatea
<changefreq>Frecvența de schimbareOpțional — Google îl ignoră în mare parte
<priority>Prioritatea paginiiOpțional — Google îl ignoră

Greșeală critică: Sitemap cu lastmod setat la data curentă pe toate paginile la fiecare build. Google tratează lastmod ca semnal de freshness — dacă toate paginile au aceeași dată, semnalul devine noise și Google îl ignoră complet. Setează lastmod doar pe paginile care chiar au fost modificate.

Pe un site Next.js, sitemap-ul se generează programatic la build time din sursa de date reală — fiecare pagină primește lastmod din câmpul updated al frontmatter-ului. Zero erori, zero intervenție manuală.


De ce e HTTPS obligatoriu și ce alte security headers contează?

HTTPS nu mai e opțional din 2018 — Chrome marchează vizibil site-urile HTTP ca „Not Secure". În 2026, 94,65% din traficul web este HTTPS. Google confirmă HTTPS ca semnal de ranking (minor, dar existent).

Security headers importante pentru SEO tehnic:

HeaderCe faceImpact SEO
HTTPS (TLS 1.3)Criptează conexiuneaSemnal ranking + trust utilizator
HSTSForțează HTTPS pe toate request-urilePrevine mixed content, redirect loops
Content-Security-PolicyControlează sursele de resurse permisePrevine XSS, protejează utilizatorii
X-Frame-OptionsBlochează iframe-urile neautorizatePrevine clickjacking
X-Content-Type-OptionsPrevine MIME type sniffingSecuritate browser

Pe platforme moderne (Vercel, Cloudflare), HTTPS cu TLS 1.3 este gratuit și automat. Security headers se configurează o dată în next.config.js sau _headers — zero cost recurent.


Cum verifici dacă site-ul tău e mobile-first ready?

Din 2020, Google folosește mobile-first indexing — versiunea mobilă a site-ului tău este cea pe care o crawl-ează, indexează și pe baza căreia te rankuiează. Chiar dacă 60% din vizitatorii tăi vin de pe desktop, Google evaluează versiunea mobilă.

Checklist mobile-first:

  • Responsive design (nu versiune separată m.domain.ro)
  • Text lizibil fără zoom (font-size minimum 16px)
  • Butoane/link-uri cu target area minimum 48×48px
  • Conținut identic pe mobil și desktop (nu ascunde conținut pe mobil)
  • Viewport meta tag corect: <meta name="viewport" content="width=device-width, initial-scale=1">
  • Core Web Vitals verzi pe mobil (nu doar desktop)
  • No horizontal scroll

Tool de verificare: Google Search Console → Mobile Usability report + PageSpeed Insights (selectează „Mobile").

Diferența mobil vs desktop pe Core Web Vitals: Rata de eșec pe mobil (52%) e semnificativ mai mare decât pe desktop (44%). Principala cauză: procesoarele mobile mai lente afectează INP și LCP. Un site care trece CWV pe desktop poate eșua pe mobil — și Google folosește versiunea mobilă pentru ranking. Testează mereu pe mobil mai întâi.


Cum implementezi structured data (schema markup) corect din punct de vedere tehnic?

Structured data este un element la intersecția dintre SEO tehnic și on-page. Din perspectivă tehnică, implementarea corectă a schema markup presupune: format corect (JSON-LD recomandat de Google), validare fără erori, și deploy consistent pe toate paginile relevante.

Implementare tehnică recomandată:

AbordarePlatformăAvantajeDezavantaje
JSON-LD în <head>OriceRecomandat de Google, separat de HTMLManual pe WordPress fără plugin
Plugin (Yoast/RankMath)WordPressAutomat, interfață vizualăLimitări la schema custom, conflicte plugin
Generat programaticNext.jsAuto din date, zero mentenanță, flexibilNecesită development inițial

Schema types esențiale pentru SEO tehnic:

  • WebSite — pe homepage, include SearchAction pentru sitelinks searchbox
  • Organization — pe homepage și About, include logo, social profiles, contact
  • BreadcrumbList — pe toate paginile cu breadcrumbs vizuale
  • Article / BlogPosting — pe articole, include author, datePublished, dateModified
  • FAQPage — pe pagini cu H2 formulate ca întrebări
  • HowTo — pe ghiduri cu pași numerotați
  • LocalBusiness — pentru afaceri cu locație fizică (esențial pentru SEO local)

Validare: Testează fiecare tip de schema cu Schema Markup Validator și Google Rich Results Test. Erorile de schema nu produc penalizare directă, dar invalidează eligibilitatea pentru rich snippets.

Greșeală frecventă: Schema markup care nu corespunde conținutului vizibil. Dacă adaugi FAQPage schema dar întrebările nu sunt vizibile pe pagină, Google consideră asta misleading și poate ignora schema-ul complet. Structured data trebuie să reflecte exact conținutul vizibil al paginii.


Care sunt cele mai frecvente probleme de SEO tehnic?

  1. Sitemap incomplet sau absent. Fără sitemap, Google descoperă paginile doar prin link-uri — paginile fără link-uri interne nu sunt crawl-ate.

  2. robots.txt care blochează resurse critice. CSS și JavaScript blocate = Google nu poate randa pagina = indexare incorectă.

  3. Canonical tags inconsistente. Canonical-ul setează pagina „principală" dintr-un grup de duplicat. Un canonical greșit trimite autoritatea pe pagina greșită.

  4. Redirect chains lungii. A → B → C → D adaugă latență la fiecare hop și pierde PageRank pe parcurs. Maxim 1 redirect: A → D direct.

  5. Mixed content (HTTP pe HTTPS). Imagini sau scripturi încărcate pe HTTP de pe un site HTTPS generează warning-uri și pot bloca resurse.

  6. Hreflang incorect pe site-uri multilingve. Hreflang-ul trebuie să fie reciproc (RO → EN și EN → RO) și să aibă x-default. Erori de hreflang = pagini servite în limba greșită.

  7. Pagini orfane. Pagini fără niciun link intern — Google le descoperă doar din sitemap (dacă sunt incluse). Internal linking-ul corect rezolvă această problemă.

  8. Erori 404 neadresate. Pagini șterse fără redirect 301. Pierzi PageRank-ul acumulat și creezi experiență negativă pentru utilizatori și Googlebot.


Cum faci un audit SEO tehnic pas cu pas?

Pasul 1: Crawl complet cu Screaming Frog

Rulează Screaming Frog (gratuit până la 500 URL-uri) pe site-ul tău. Analizează: status codes (404, 301, 302), duplicate title tags, meta descriptions lipsă, H1 duplicate, canonical issues, imagini fără alt text. Exportă raportul pentru referință.

Pasul 2: Verificare indexare în Search Console

Google Search Console → Coverage/Indexing report. Verifică: câte pagini sunt indexate vs submitted în sitemap. Investighează fiecare categorie de excludere: „noindex", „redirect", „crawled not indexed", „duplicate without canonical".

Pasul 3: Audit Core Web Vitals

Verifică Core Web Vitals în Search Console (CrUX data) și per pagină în PageSpeed Insights. Prioritizează fix-urile: LCP > CLS > INP. Targetează zona verde la toate trei pe mobil.

Pasul 4: Verificare securitate și mobile

Testează HTTPS complet (nu mixed content), verifică security headers cu SecurityHeaders.com. Rulează Mobile-Friendly Test. Verifică viewport meta tag și text readability pe mobil.

Pasul 5: Verificare robots.txt și sitemap

Confirmă că robots.txt nu blochează resurse critice. Verifică sitemap-ul: toate paginile importante sunt incluse, lastmod-ul e corect, nicio pagină noindex nu e în sitemap. Submit sitemap actualizat în Search Console.

Pentru un ghid detaliat cu instrumente gratuite și checklist complet, citește Cum faci un audit SEO al site-ului tău.


Concluzie: SEO tehnic este ceea ce separă site-urile care rankuiesc de cele care nu?

Poți avea cel mai bun conținut din piață și cele mai puternice backlink-uri — dacă Google nu poate crawl-a și indexa corect site-ul tău, nu rankuiești. SEO tehnic e fundația invizibilă: nu produce rezultate spectaculoase în sine, dar fără el, nimic altceva nu funcționează.

Pașii următori:

  1. Rulează un audit SEO — Screaming Frog + Search Console identifică 90% din probleme
  2. Fix-ează problemele de indexare — canonical tags, noindex accidental, sitemap complet
  3. Optimizează Core Web Vitals — LCP, CLS, INP pe mobil
  4. Securizează site-ul — HTTPS, security headers, actualizări
  5. Monitorizează lunar — Search Console Coverage + GA4 pentru anomalii de trafic

Dacă ai nevoie de un audit SEO tehnic profesionist cu raport detaliat și implementare — solicită o evaluare gratuită. Echipa Digital Rocket auditează crawling, indexare, Core Web Vitals, securitate și structura site-ului — și implementează fix-urile care debloceaza ranking-ul.

Ai nevoie de ajutor cu campaniile PPC?

Echipa Digital Rocket te poate ajuta să obții rezultate mai bune din publicitatea online.

Cere o consultație gratuită