2008年8月27日星期三

SERP : 搜尋排前對消費者的影響

不管公司的大小, 許多產品都希望能夠讓消費者於網路搜尋時可以排列在最前面, 到底搜尋排前對消費者的影響是如何呢? 3位武漢大學的學者在2007年WiCom研討會上有一篇論文: "Does It Pay to Get to the Top? Contextual Factors of Branding in Search Engine Marketing", 做了一個SERP的研究 ...

他們把使用者分成兩大類, 一部分是具備搜尋技能的人, 一部分是不具備搜尋技能的人, 進行四項實驗, 然後去評估他們對產品的認知

這個研究得到幾個結論:

(1)具備搜尋技能的人較不易被SERP結果影響, 但不具備搜尋技能的人易被SERP結果影響對產品的認知

(2)當他們瞭解許多產品有進行SEO(Search Engine Optimization)來影響SERP時, 沒有顯著影響他們原有的產品認知

(3)不知名產品在搜尋排前時, 產品認知的影響比知名產品來得顯著

以上結果代表什麼意義呢? 就是沒有名氣的產品如果能夠搜尋排前是非常重要的, 可以快速建立產品的Branding, 相對的知名產品就沒必要花太大心力在SERP上, 並且對於廣大的不具備搜尋技能的人影響較大, 就算他們知道SERP可能是被操作的, 也不太會對於搜尋排前產生太大疑問

所以如果您的產品越沒有名氣, 把精力放在SEO來改善SERP, 是決對能夠逐步建立品牌的一個快速方式, 並且能夠獲得消費者對於您的產品的正面認知!

標籤: , , , , , , , ,

繼續閱讀:台灣搜尋引擎優化與行銷研究院

2008年8月26日星期二

SERP : Search Engine Results Page

前幾篇文章談了一堆關於Ranking的技術, 最後也就是最重要的就是SERP (Search Engine Results Page), 不管您的PageRank, TrustRank ... 等等指標多好, 如果使用者在搜尋時無法出現在前幾頁, 也就是有較好的SERP的話, 所有的指標都只是白費功夫, 空有好的內容, 但搜尋引擎並不認識你, 可說是非常可惜的事情, 如何才能夠讓您的網頁有優秀的SERP表現呢?

SERP與keyword及網頁結構關係最密切, 而高的PageRank不能保證有好的SERP, 高的流量也不能保證有好的SERP, 如果能夠有好的內容再加上優秀的SERP, 那才是網站成功的保證

當使用者下了一個keyword, 哪些重要因素影響SERP的結果呢?

(1)網頁title

例如本文章的重點在談SERP, 而title就是"SERP : Search Engine Results Page"
如果您的內容無法表現在title tag上, 當然SERP就無法有好的表現, 這也就是上次談到: SEO 三大建議, 希望能夠使用blog結構的原因, 因為可以不需額外功夫就讓內容的title顯示出來

(2)網頁meta data

meta data中的keyword, 與內容中的heading處理, 也可以讓search engine特別注意, 這個在上文Semantic HTML也提到過, 使用正確的tag, 可以讓search engine瞭解您的內容

(3)網址與目錄

如果您的網址或目錄中含有keyword, 如http://www.serp.com/serp-pagerank/serp.html, 如此也可以讓您針對SERP這個keyword有較好的結果, 並且就網址後綴來說, 一般org/net/com 也比ccTLD (Country Code Top Level Domain, 如org.tw/net.tw/com.tw)要好

(4)網頁內容

當然在您文章的內容一定要出現該keyword, 並且真的就是關於該keyword的文章, 否則使用者找到您的網頁也就沒啥意思了

(5)Refresh rate

什麼是Refresh rate? 就是您網站的更新頻繁度, 如果您的網站內容時常更新, 除了能夠讓search engine加快抓取頻率外, 也能夠讓SERP有更好的結果

也許有人會問:到底search engine會多久來抓我的資料? 除了使用http://www.google.com/webmasters/可以讓您上傳sitemap來告知之外, search engine也會自動根據您更新頻繁度來修正抓資料的頻率, 也就是如果每次search engine來抓資料都發現您已經更新, 他會修正縮短抓資料的區間, 如果來抓資料時發現您的網站沒有更新, 則放慢抓資料的區間

因此當您的網頁如果已經被indexing後, 並且您的網站屬於Trust那個區塊, 其實search engine抓資料的頻率有很大因素決定在您手上

標籤: , , , , , , , ,

繼續閱讀:台灣搜尋引擎優化與行銷研究院

TrustRank, PageRank, SERP

許多站長常常問一個問題 : 為何我的網頁已經建置很久了, 但一直沒被Google index? 另外一個問題也常常被問到 : 為何許多PageRank值比我低的網頁, 搜尋時出現在我的網頁前面?

第一個問題的答案是 : TrustRank, 而第二個問題的答案是 : SERP (Search Engine Result Page)與PageRank不一定成正比

本部落格的網頁最快約10~30分鐘就會被Google抓走, 最慢也在一天內就被Google抓走, 原因是TrustRank

什麼是TrustRank? 詳細資料請看 : Combating Web Spam with TrustRank

由於全球的網頁數目太龐大, 因此Google的Sandbox, TrustBox技術會將網頁區分為兩大區塊-被排除的區塊(Sandbox)與信任的區塊(TrustBox)

哪些網站會被信任? 被Dmoz list的網站, 被Social bookmark熱門推薦的網站, 被TrustRank/PageRank高的網站所連結的網站 ... 這篇文章也提到一些成為TrustBox區塊的方式

另兩篇文章 : What is Google TrustRank (TR)?, The Social Side Of Trustrank 也提出許多提高TrustRank的方式, 本站之前的文章也都提到過

當TrustRank較好時才會快速被抓取, 被抓取後才可能有好的SERP, SERP就與網頁結構有很大的關係, 但是真正決定SERP的因素, 現在還是只能由結果來猜測, 尚無真正能夠證明哪些因素來決定SERP (SERP的研究倒是不錯的研究題目)

不過不管如何, 研究了一堆PageRank, TrustRank, SERP ... 之後, 其實最重要的還是老話一句 - 內容與結構! 就把一些指標暫時放一邊, 好好研究如何產生好的內容與正確使用Semantic HTML比較實在吧!

標籤: , , , , , , ,

繼續閱讀:台灣搜尋引擎優化與行銷研究院

PageRank, BrowseRank, AlexaRank

在八月初的SIGIR (Special Interest Group on Information Retrieval)研討會上, 出現了BrowseRank: Letting Web Users Vote for Page Importance

這個微軟研究中心的BrowseRank演算法, 大抵是想跟Google的PageRank一別苗頭, 到底這個BrowseRank是否能夠比PageRank來得好呢? 我們來研究一下

大略瀏覽了上述的論文, 發現BrowseRank只是Page-level的AlexaRank, 他的data set來自於瀏覽軟體的使用者資料, AlexaRank由Alexa toolbar所得到的資料來分析, 而BrowseRank由微軟的IE所得到的資料來分析

AlexaRank只是Domain-level ranking, BrowseRank比較仔細一些, 進到Page-level Ranking, Website-level Ranking, 而PageRank是透過link-analysis來取得頁面的重要度

論文題目說: Letting Web Users Vote for Page Importance, 其實是值得商確的, 網友到訪了一個網頁, 未必就認為該頁是重要的, 可能看完後幹聲連連 ...

因此我們可以粗略的說AlexaRank標示了網域的熱門度, BrowseRank標示了網頁/網站的熱門度, PageRank標示了網頁的重要度

到底哪個比較精準, 就牽涉到幾個問題:

(1)比較熱門的網站是否就比較重要?
(2)link數目多就代表比較重要?
(3)不同階層的使用者, 熱門度如何參考?
(4)廣度網站與深度網站, 熱門度如何參考?

當然上面問題沒有正確答案, 學術研究的網站一般不能跟入口網站比熱門度(AlexaRank與BrowseRank), 而新興網站一般不能與歷史悠久的網站比重要度(PageRank), 但是也可能會有例外 (而且例外還不少)

所以也很難去比較AlexaRank,PageRank,BrowseRank到底哪個好, 後續有更多資料再來分享啦...

標籤: , , , , , , , ,

繼續閱讀:台灣搜尋引擎優化與行銷研究院

2008年5月28日星期三

Microsoft的搜尋與多媒體技術


微軟亞洲研究院成立十週年,院長洪小文(上圖)透露了部份研究成果:搜尋與多媒體技術。目前進行的研究成果包含自動化圖片編輯、與行動定位系統搭配的圖片搜尋、以搜尋為基礎的翻譯技術、哼唱搜尋,以及自動語音合成技術等,全都與多媒體或搜尋技術相關,顯示微軟打算與Google正面交峰的企圖。

與Google Earth與街景服務競爭的圖片搜尋技術稱為Photo2Search,使用者可用手機將街道上的建築物拍攝並上傳至系統,系統便會先取得基地台的位址資料,再將附近街道圖片與使用者上傳之圖片進行比對,比對完成後,再將使用者所需的資訊,如附近地圖、觀光點、建物資訊等訊息回傳給使用者。

傳統的圖片搜尋多半是透過metadata才能進行搜尋,但Photo2Search是透過基地台的位置比對,將搜尋目標範圍縮小後,再針對圖片內容進行畫素分析。

Photo2Search顧名思義就是利用圖片來搜尋,想要知道最近出來的DVD的反應如何?是值得一看還是浪費時間?只要照個像丟上系統查詢...想要知道最近開的餐廳評語如何?也只要照個像丟上系統查詢...

Photo2Search就是要讓: a picture is worth a thousand words , 一張圖片勝過千言萬語, 讓圖片自己與系統對話!

這個技術就是要解決實際世界與數位世界的差異問題, 這項技術的前身是Content Based Image Retrieval (CBIR) - 圖片內容頡取, 但是運算時間長且不易取得同類查詢的結果, Photo2Search使用另外的方式來比對事先取得的圖片資料庫, 這個技術可以運作在圖片、聲音、影片上。

其他關於搜尋的技術研發,還有翻譯搜尋Lingo。透過比對網路上現成的多語言資料,可以更精確找出特定語詞的譯法。至於已被商品化的搜尋技術,則是哼唱搜尋(Query by Humming),藉由哼唱一段歌曲,再透過語音辨識技術來找出資料庫中吻合的曲目,該技術目前已輸出給部分手機鈴聲(ringtone)業者,並已有商業化服務。



該語音合成的發聲特徵來自建模(modeling)技術,任何人只要先花二十分鐘讓系統學習,然後就能用他的聲音唱任何歌曲、說任何話。

這樣一個系統在任何多媒體資料庫上是非常有用的,其中載有音樂的資料庫提供一個替代性和自然的方式查詢。可以廣泛使用這種系統在商業音樂產業、音樂電視台及電台、音樂商店,甚至於個人的使用上。

標籤: , , ,

繼續閱讀:台灣搜尋引擎優化與行銷研究院

2008年5月22日星期四

搜尋引擎的運作背後



相信大部分人都不太清楚到底搜尋引擎如何運作, 就算是SEO專家或是技術高手, 對於Google的PageRank也都只能由觀察來推論實際運作的可能性, 現在我們就幾個關鍵人物的說法來探究 ...

近日Google的官方部落格刊登了Udi Manber(VP Engineering, Search Quality)的這篇文章: Introduction to Google Search Quality, 並且透露Google將定期公告關於搜尋引擎的訊息

Udi Manber在2006年前是負責Amazon的A9搜尋引擎, 因此雖然只加入Google兩年, 但是已經算是搜尋引擎的老鳥了

在談Udi Manber的文章前, 我們先來看Blekko的Rich Skrenta, 他敘述關於search engine:

Step 1 is to copy the internet onto your cluster. Step 2 is to analyze it..

Search is like 7 hard problems wrapped into a stack. Distributed systems, html analytics, text analytics/semantics, anti-spam, AI/ML, frontend/UI. And scale...

Plus there is always something fresh and new every day mining through the vast sordidness of the many billions of pages on the web. You expect to be amazed at the endless varieties of crazy porn domains and new approaches to webspam.

Rich Skrenta說到, 搜尋引擎就是把全球的頁面複製一份到你的叢集裡, 然後進行七項苦工(分散式系統,HTML分析,文字與語意分析,反垃圾,人工智慧與機器學習,使用界面,彈性的系統規模)...然後每天都會驚訝發現許多的色情與垃圾網站...(僅就意思翻譯,請多包涵)

他的最後一句透露了兩個重點...取巧的網頁會被抓出來,以及人類在整個過程中會介入資料的判斷

其實從上次Google的PR調整來處罰Paid link, 大概就清楚人為干擾search engine algorithm的例子 ,但由Rich Skrenta的說法就更明白, 非自然的網頁行為是被嚴密的監控的, 也許您會認為上億頁的資料中不會被發現, 那您就低估了人工智慧與機器學習的可能性 ...

SitePro列出的SEO十大守則

Commandment 1: There are No Rank Guarantees
Commandment 2: Ranking is Not the End, It's the Means
Commandment 3: Know Your Competition
Commandment 4: Use Search Engine Friendly Design
Commandment 5: Select Keywords that are Worthy
Commandment 6: Write Great Content
Commandment 7: Use Good Hyper Linking Strategy
Commandment 8: Write Relevant and Original Meta Content
Commandment 9: Acquire Relevant Links
Commandment 10: Consult Experts, If You Need To


也可以很清楚的知道: 好好耕耘內容, 不需要太在意評分, 自然可以呈現好結果

我們現在再回來看看Udi的文章 ...

PageRank is still in use today, but it is now a part of a much larger system. Other parts include language models (the ability to handle phrases, synonyms, diacritics, spelling mistakes, and so on), query models (it's not just the language, it's how people use it today), time models (some queries are best answered with a 30-minutes old page, and some are better answered with a page that stood the test of time), and personalized models (not all people want the same thing).

顯示PageRank只是"Part-of", 由許多觀察也發現, PR與SERP不如以前關係緊密, 因此許多追求PageRank的作法應該有所調整, 並且以後可能搜尋結果可能會因人而異(您看到自己頁面的搜尋結果很好,不要太高興啦...)

In 2007, we launched more than 450 new improvements, about 9 per week on the average...we made significant changes to the PageRank algorithm in January.

去年Google就進行了450次以上的調整, 並於2008.01做了PageRank algorithm重大調整, 跟一些專家所說的數字差距真的太遠啦

There is a whole team that concentrates on fighting webspam and other types of abuse. That team works on variety of issues from hidden text to off-topic pages stuffed with gibberish keywords, plus many other schemes that people use in an attempt to rank higher in our search results. The team spots new spam trends and works to counter those trends in scalable ways; like all other teams, they do it internationally.

如Rich Skrenta所說的, Udi也提到非自然的取巧作法是被嚴格觀察的...尤其當您在網頁上看到某些取巧的作法時, 就趕緊停止吧, 因為Gooogle早晚也會知道的...

我們就密切注意Udi Manber後續的文章吧, 如果您懶得看英文, 隨時回來這裡交流吧 ...

標籤: , , , , , ,

繼續閱讀:台灣搜尋引擎優化與行銷研究院

2008年5月15日星期四

語意搜尋的前哨站 : 垂直搜尋


Google的一般搜尋後又推出各類搜尋之際(圖書搜尋, 地圖搜尋, 學術搜尋, 網誌搜尋, 產品搜尋, 新聞搜尋...等), 各家一堆特定目的垂直搜尋也紛紛想要搶下一片江山, 這些搜尋引擎到底存活的機率有多少? 功能如何?

目前廣泛性的搜尋除了Google外, 大抵普遍被使用的就是Yahoo/Microsoft/A9/AltaVista/AllTheWeb/Lycos/Ask.com/Baidu...等等, 在這些廣泛性搜尋引擎與語意搜尋引擎(如Kartoo/izito/ujiko/hakia...等)之間, 垂直搜尋引擎的出現也彌補了目前搜尋不精準的缺點。

以下就來介紹一些功能不差的垂直搜尋及特殊查詢網站...

(1)(垂直搜尋)Kooxoo酷訊網 : 提供中國大陸的工作、房屋、票務、酒店、旅遊、購物等生活內容的搜索服務。這個酷訊網由北京大學計算機工程背景的陳華所創辦, 可以搜尋到的訊息可以說幾乎涵蓋了中國大陸的食衣住行娛樂, 由於表現不凡, 也獲得了Qihoo不少資金的投資。

(2)(垂直搜尋)Jobui/Jobmet : 為求職者提供大量的工作訊息,及中高端人才獵頭服務。這類服務與台灣的104人力銀行不同, 他們沒有自己的資料, 只是提供界面去各人力資源網站抓取資料加以整合。

(3)(垂直搜尋)Krillion產品搜尋 : 這個查詢與Froogle類似, 但資料量不夠多, 面對Google大概存活率不高, 除非資料能夠往精緻化發展。

(4)(垂直搜尋)Spock找人服務 : 這個找人服務與USA People Search類似。

(5)(垂直搜尋)Yoinkd音樂搜尋 : 與百度的MP3搜尋類似, 精準度不錯, 而且資料量也不差。

(6)(特殊查詢)Openrice餐廳搜尋 : 可以搜尋香港各類餐廳, 但不算是垂直搜尋, 因為資料蠻齊全的, 因此也把他列進來。

(7)(整合界面搜尋)oskope視覺搜尋 : 提供搜尋eBay/Amazon/flickr/Fotolia/Yahoo/YouTube等內容的視覺化搜尋, 其功能與Spacetime類似, oskope需要安裝額外的plug-in, 而Spacetime需要安裝額外的軟體, 並且硬體需求也較高。

(8)(垂直搜尋)FindBook翻書客 : 提供各網路書店的書籍比價搜尋, 類似的服務有isoshu, 但是isoshu找的不是書籍的價格, 竟然找的是書的內文, 不知他是如何處理版權問題。

(9)(垂直搜尋)Yousee BBS搜尋 : 提供BBS站內的文章搜尋, 是政治大學資科系團隊製作出來的。

在網路上資料日增的情況下, 各種需求已經無法以單一普遍性搜尋引擎來滿足, 因此專門領域搜尋、垂直搜尋、語意搜尋等需求會越來越高, 並且更符合人性化的界面也是大家所期盼的, 以上這麼多的搜尋網站到底誰能勝出? 還是只是曇花一現? 就看使用者賞不賞臉了!

標籤: , , , , , ,

繼續閱讀:台灣搜尋引擎優化與行銷研究院

2008年5月7日星期三

勞力密集的高科技網路業


(圖片來源:http://www.explorepahistory.com/)

照理說高科技主要目的是在節省人力,讓需要人力的作業透過科技來快速處理,但是在層層環節還無法暢通的情況下,你所認為的高科技背後,可能就像上圖一樣 ... 看似一切自動化的假像下,其實後面是一堆人在揮汗作業著 ...

你認為在YouTube、無名影音等網路影音服務,是誰在監看哪些內容是不合規定的?

你認為酷訊網站翻書客等垂直整合查詢的資料是怎麼來的?

你認為SEO(Search Engine Optimization)廠商用什麼方式讓你的網站提高搜尋出現機率的?

答案揭曉...

YouTube、無名影音等網路影音服務,除了靠使用者檢舉之外,是靠人去監看哪些內容是不合規定,然後予以刪除。當資料量越來越大時,不是陷入無法控制的局面就是必須投入更多的人力。

垂直整合查詢的服務必須事先以Information retrieval的技術,分析取得資料的HTML TAG來確認抓取資料的格式,這當然就必須人力介入以提高準確度,但是當抓取資料的對方修改網站結構,所有資料就亂了譜了,所以當資料結構變更頻繁時,勢必投入更多的人力來修正。

而SEO就更是勞力密集了,雖說有一堆SEO軟體的協助,但是SEO軟體分析結果還是必須由人來決定哪些要修改?要採取哪些動作?然後背後一堆人來登錄網路目錄,並且大多再靠人力來監看結果。

為啥這麼累? 因為許多技術還不純熟,因為資料的互通還卡在許多關卡,因為只有人來作判斷才能確保最後結果。

哪些技術還不純熟? 影音內容與文字內容的語意技術,目前還無法讓電腦正確自動判讀影音內容或文字的語意,大多市面上的技術都還無法保證百分之百的準確。而資料互通雖然有XML與Web Services的技術,但是對方不開放的情況下,仍舊無法達到自動互通的結果。

想像一下,你用滑鼠一點,有這麼多的內容讓你免費取用,但是其背後正躲著一群人努力忙碌的產生較正確的資料,這個畫面是有些滑稽,如果資料量越來越多,整個勞力密集的高科技網路業會怎樣呢?

標籤: , , ,

繼續閱讀:台灣搜尋引擎優化與行銷研究院