A lassú weboldalt sem a látogatók, sem a Google nem szereti. Ha túl sokáig tart a betöltés, a felhasználók egyszerűen kilépnek, a kereső pedig hátrasorolja az oldalt – még akkor is, ha tartalmilag rendben van.
ALT text módosítás hatása – esettanulmány
Mivel jelentős időt szenteltem a képek alternatív szövegének alapos megismerésére, úgy döntöttem, hogy egy gyakorlati kísérlettel is tesztelem az alt text módosítás hatását a keresőben.
A weboldal betöltési sebesség 5 gyenge pontja
A rangsorolás során a Google figyelembe veszi a weboldal betöltési sebességét, a felhasználók pedig ösztönösen elvárják, hogy egy oldal gyorsan betöltődjön. Tehát a betöltési sebesség nemcsak technikai kérdés, hanem közvetlen hatással van arra, hogy mennyire elégedettek a látogatók és milyen helyet foglal el az oldal a keresési találatok között.
Google AI Overviews – Van okunk aggódni?
Azt már megszokhattuk, hogy a Google keresője folyamatosan változik, de nemrégiben egy olyan újítás jelent meg, amely alapjaiban formálhatja át az eddig ismert keresési élményt. Ez a funkció a Google AI Overviews, ami egy, a mesterséges intelligencia által generált összefoglaló. A keresési találatok felett jelenik meg, és gyors, tömör válaszokat ad a felhasználók kérdéseire.
5 online eszköz, weboldal sebesség teszt futtatásához
Hiába nézed meg a saját böngésződben, mennyire gyors a weboldalad, ez egy weboldal sebesség teszt nélkül nem ad releváns eredményt. A saját netkapcsolatod és géped gyors lehet, de máshonnan nézve, más eszközön akár lassabb is lehet a betöltés.
A REP fejlődése és jövője – Robots Refresher (3.)
A Robots Refresher sorozat célja, hogy érthetően bemutassa, hogyan irányíthatják a weboldaltulajdonosok a keresőrobotokat – vagyis hogyan adhatják meg, hogy a keresők mit láthatnak az oldalukból, és mit ne. A Google Search Central által indított sorozat gyakorlati példákon keresztül mutatja be a legfontosabb eszközöket és szabályokat.
Szabályozás egyes aloldalakra – Robots Refresher (2.)
A Google Search Central Robots Refresher sorozata segít a weboldaltulajdonosoknak jobban megérteni, hogyan szabályozhatják a keresőrobotok viselkedését. Az első részben a robots.txt fájl működését mutatták be, most pedig a robots meta tagek és az X-Robots-Tag HTTP fejlécek szerepét veszik górcső alá. Ezekkel az eszközökkel már nemcsak mappákra, hanem akár egyes oldalakra vagy fájlokra is külön szabályokat adhatunk meg a keresők számára.
Robots.txt a keresőrobotok irányítására – Robots Refresher (1.)
Gondolkodtál már azon, hogy a keresőrobotok hogyan döntik el, mely oldalakat látogatják meg egy weboldalon? Vagy hogy lehet-e szabályozni, mely tartalmak kerüljenek be az indexelésbe? A Google Search Central új blogsorozata, a Robots Refresher, éppen ezekre a kérdésekre ad választ.