29 czerwca 2012 ~ 0 komentarzy

Ciekawy Hangout z Johnem Muellerem

John MuellerKarol Dziedzic opublikował na swoim profilu Google+ krótkie podsumowanie Hangout Google+ z Johnem Muellerem (Webmaster Trends Analyst – Google Szwajcaria) oraz kilkoma innymi webmasterami. Podczas rozmowy John udzielił kilka istotnych odpowiedzi na nurtujące nas pytania takie jak „Czemu nie rel=author nie zawsze działa?„, zdradził również, że Google pracuje nad nowym algorytmem, który będzie skupiał się na TrustRank stron. Zapraszam do lektury i życzę udanego weekendu.

Czy Google wprowadzi narzędzie disavow link tool tak jak Bing dwa dni temu?
Zasadniczo myślą o tym, ale uważają, że w większości przypadków może być to szkodliwe narzędzie. W niektórych przypadkach świetnie by się sprawdziło, lecz dla większości – niestety nie.

Czemu rel=author nie zawsze działa?
Czasem powód może być dosyć błachy – chodzi o zdjęcie autora. Jeżeli system nie rozpozna na zdjęciu osoby, wtedy też przy artykułach z rel=author nie pojawi się jego podobizna. Przykład? Zobaczcie jakie zdjęcie ma +John Mueller  – w jego przypadku to nie działa – zbyt fikuśny kapelusz ;)

– Czy w Google webmaster tools zobaczymy takie dane jak w OSE, MajesticSEO albo ahrefs?
Nie mówią nie, ale liczą na kontakt z webmasterami – przy dużej ilości sygnałów od nich (że jest potrzebne) być może coś takiego wprowadza.

– Case study na temat ideksowania stron od +Dan Petrovic
Rozważmy stronę http://aasm.org.eu
Plik robots wygląda następująco: http://www.aasm.org.au/robots.txt
Dodatkowo mamy odpowiednie znaczniki meta na stronie blokujące przed indeksowaniem strony przez roboty (chociaż jak już w robots.txt jest disallow to robot do meta tagów nie powinien dotrzeć)

Czyli teoretycznie nic nie powinno być zaindeksowane prawda? Otóż..
https://www.google.com/search?q=site:aasm.org.au&filter=0&as_qdr=full&num=100

Co jest powodem? Linki kierujące do strony, która nie powinna być w indeksie. Strony nie ma, ale linki na innych stronach prowadzące do niej nadal są.

Jak Google sobie radzi z patentem ala +Kiper Piotr  (Kojotek)?
Zasadniczo sobie nie radzą ;) Tzn. utrzymują, że przyspieszają proces wyłapywania wielokrotnych 301. Ale może trwać to tydzień, dwa albo i dłużej. Zatem przez dosyć długi okres strona będzie w topie, potem zniknie, 301 i zabawa trwa nadal.

Czy możemy spodziewać się nowych update algorytmów?
Pewnie, że tak. Obecnie pracują nad nowym algo który będzie skupiał się na TR stron. Nie wiadomo czy wyjdzie oficjalnie czy zostanie dodatkiem do obecnych algo.

Autorem tekstu jest Wojtek Tyluś. Powyższy tekst jest moją osobistą opinią, mogę się mylić a Ty nie musisz się z nią zgadzać.

Witajcie na moim blogu

Blog Wojtka Nazywam się Wojtek Tyluś i jestem autorem tego bloga. Znajdziesz tutaj informacje dotyczące m.in.: SEO, serwisów społecznościowych, a także dowiesz się co słychać ciekawego w sieci. Wiadomości, które z jakiegoś powodu nie trafiły na bloga, znajdziecie śledząc moje profile społecznościowe, zwłaszcza na Facebooku oraz Google+. Zapraszam.

Loading Facebook Comments ...

Leave a Reply

No Trackbacks.

Przeczytaj poprzedni wpis:
Chroń swoją pocztę przed tonami zaproszeń do Wydarzeń Google+

Dopiero się pojawiły a już budzą podejrzenia o wykorzystanie do spamowania. Wydarzenia Google+, bo o nich mowa, z pewnością przyciągną...

Zamknij