graff ogłosił niedawno ciekawą teorię dotyczącą superindex-u (temat wcześniej poruszany przez jeża). Teoria oparta na kilku przypadkach odnalezienia strony (w przypadku jeża), bądz podstron w indeksie wyszukiwarki google, w którym teoretycznie nie miały się prawa znaleźć. Pytanie tylko dlaczego się znalazły?

Powodów może być pewnie kilka. Jednym z ciekawszych pomysłów jest właśnie wspomniana teoria superindex-u.

Co to jest ten superindex? Ciężko jest właściwie dokładnie zdefiniować, graff podjął się napisania definicji w miare precyzującej termin i pisze:

“superindex to integregracja niezależnych dotąd sieci DC głównych graczy na rynku wyszukiwarek celem eliminacji powielania wykonywanej pracy. Chociażby na rzecz ograniczenia energochłonności procesu gromadzenia danych i ich obróbki w podstawowym zakresie.”

W sumie definicja ma w miarę ręce i nogi. Istnienie superindex-u wyjaśniałoby dlaczego strona jeża odwiedzana tylko przez boty innych wyszukiwarek np. msn znalazła się w indexie google. Poprostu msn bot zaindexował i dodał stronę do superindex-u, a stamtąd pobrana została przez google i sklasyfikowana według własnego algorytmu. Nie należy mylić wyników wyszukiwania google i msn, bo te będą nadal inne, zależne od własnego algorytmu rankingującego daną stronę w wynikach wyszukiwania. Superindex zaoszczędziłby poprostu moc przerobową wyszukiwarki, która nie ma danej strony w swoim indexie. Tworzony byłby jeden index, który dopiero potem każda wyszukiwarka przetwarzałaby na wyniki zależne od własnego algorytmu.

Teza superindex-u jest bardzo świeża i niepoukładana, jest wiele jeszcze kwesti, które ciężko jest przypisać do niej… Ale kto wie czy to nie jest przyszłość, a może już nawet teraźniejszość?
Teoria szybko ewoluowała wraz z rozrostem topiku… skończyło się na ewolucji samego algorytmu wyszukiwania (ta część bardziej powinna zainteresować SEO branże). Tutaj z koleji zaczęto wysnówać pomysły, jak zmieni się algorytm wyszukiwania google (a co za tym idzie innych wyszukiwarek również) i co będzie miało decydujący wpływ na pozycję strony. Hipotezy są dość różne, jest sporo głosów, że link straci na wartości kosztem użytkownika (jak wiadomo pozycja strony teraz zależy w głównej mierze od link popularity), ranking pozycji oparty o zachowanie użytkownika na danej stronie (to ile spędził na niej czasu, co na niej robił, w jakie linki klikał, jakie informacje szukał itp) mógłby to zmienić i zachwiać branżą SEO.

Według mnie wartość link popularity w algorytmie napewno spadnie, kiedy to jednak nastąpi, kosztem czego oraz jak duży to będzie spadek wartości nie wiem i mogę tylko układać kolejne domysły, które i tak pewnie prędzej czy poźniej okażą się tylko bzdurną teorią…

Warto jednak czasem pogłówkować co będzie za … 10-20-50 lat (a w przypadku internetu 1-2-5 lat, bo dalej w przyszłość wybiegać się boję)….

O wszystkim można poczytać tutaj, oraz w odnośnikach podawanych przez autorów postów. Myślę jednak, że do całego tematu należy podejść z dystansem i potraktować troszke z przymróżeniem oka 😉 Teori może być wiele, inną z nich może być poprostu współpraca na linki google >> msn i tylko wspólna wymiana indexu… kto to wie…
Pozdrawiam