網站建設該如何去最佳化呢?

不論你的網站是用Shopify建立的,還是Wordpress,還是Magento,要注意你的網站都要做最佳化

網站建設該如何去最佳化呢?

我們在講到針對一個網站的最佳化,特別是站內最佳化的時候,其實主要包含

2大方面:

一是針對頁面的SEO (one-page )

另外一個是網站結構最佳化,也叫做技術性SEO

由於搜尋結果的競爭越來越激烈,對SEO在技術上的最佳化也提出了更高的要求。

一個表現良好的網站,必須要是可抓取、快速、安全的網站。

技術性SEO包含的內容很多,涵蓋網站的結構設計、URL、網路地圖等內容,而且是一個技術性很強的方面。

今天我主要說一說網站技術SEO的六個基本方面,做好這六大方面,網站的效能會更加最佳化和健康。

很多人可能看到這一章節會覺得很枯燥,但是其實是很重要的。

為什麼呢?

因為一個網站,如果你花了很多時間在獲取流量上,比如廣告,比如紅人,但是基本的文章的audit(審視)都沒有過關的話,那麼無形之中會大大增加你網站的營銷費用。

試想一下一個2秒開啟速度的網站,和一個十秒才打開的網站,那效果能一樣嗎?

所以從一個網站的最佳化角度來講,特別是技術性最佳化的角度來探討,我們要從以下幾點進行最佳化:

01

確保網站可抓取

對於搜尋引擎最佳化, 做好優質內容是必須的。但是隻有優質內容還不夠,如果搜尋引擎抓取不到這個頁面,那你辛辛苦苦編寫的內容不是白費了嗎?

確保網站可抓取,首先要檢查robots。txt檔案,這個檔案是任何網路爬行軟體到達站點時的第一個呼叫點。

robots。txt檔案會明確應該被抓取的和不應該被抓取的部分,表現為允許(allow)、禁止(disallow)某些使用者代理的行為。

透過將/robots。txt新增到根域末尾,可以公開使用robots。txt檔案。我們看一下我的網站的示例:

網站建設該如何去最佳化呢?

可以看到,Hallam網站不允許以/ wp-admin(網站後端)開頭的URL被抓取。透過指明哪些地方禁止這些URL,可以節省頻寬、伺服器資源和爬網預算。

與此同時,搜尋引擎爬蟲抓取網站的重要部分時,不應該受到禁止。

因為robots。txt是爬蟲在抓取網站時看到的第一個檔案,所以最好是將robots。txt指向站點地圖。可以在舊版的Google Search Console中編輯和測試robots。txt檔案。

網站建設該如何去最佳化呢?

在robots。txt的測試工具中,下面的網址欄輸入任何網址,就可以檢查這個網址能否被抓取,robots。txt檔案中有沒有錯誤和警告。

因為舊版的Google Search Console功能要比新版本的功能多一些,在技術SEO方面舊版本會更好用一些。

比方說,舊版本可以檢視站長工具上的抓取統計資訊區域(Craw Stats),對於瞭解網站的抓取方式會更加的方便。

網站建設該如何去最佳化呢?

網站建設該如何去最佳化呢?

這個報告有3個圖表,顯示了最近3個月的資料。

每天抓取的網頁數量、每天下載的千位元組數、下載網頁所花費的時間(以毫秒為單位),能夠顯示網站的抓取速度及和搜尋引擎爬蟲的關係。

搜尋引擎爬蟲定期訪問某網站,並且這是一個快速而且容易被抓取的網站的話,這個網站就會有很高的抓取速度。

這些圖表資料如果能保持一致是最好的,任何重大波動都會出問題,可能是HTML損壞,內容陳舊或robots。txt檔案阻止了太多URL。

如果載入一個頁面需要很長時間,表示爬蟲爬取時間太長,建立索引速度較慢。

還可以在新版的Google Search Console檢視覆蓋率報告中的抓取錯誤。

網站建設該如何去最佳化呢?

這些地方都是有爬取問題的頁面,點選可以顯示這些頁面。檢查這些頁面是什麼原因導致的爬取問題,最好不是很重要的頁面,儘快解決這些問題。

如果你在Craw Stats或覆蓋率報告中,發現重大的抓取錯誤或波動,可以對日誌檔案進行分析檢視。

從伺服器日誌訪問原始資料可能會比較麻煩,因為分析是高階設定,但它有助於準確理解哪些頁面可以被抓取、哪些不能抓取。

哪些頁面會被優先處理,哪些區域出現了預算浪費的情況,還有爬蟲在爬取網站的過程中收到哪些伺服器響應。

02

檢查站點可編入索引

檢查爬蟲是否可以抓取網站之後,還要搞清楚網站上的網頁有沒有編入Google索引。

有很多方法可以檢查這一問題,前面用到的Google Search Console覆蓋報告,就可以用來檢視每個頁面的狀態。

網站建設該如何去最佳化呢?

從這個報告中我們看到四個資料:

錯誤:

404s重定向錯誤。

有效警告

:已編制索引但附有警告的頁面。

有效:

成功編制索引的頁面。

已排除:

被排除在索引狀態之外的頁面及其原因,如重定向或被robots。txt阻止的網頁。

還可以使用URL檢查工具分析特定的URL。

如果某主頁的流量有所下降,就該檢查這個新加入的網站是不是已經編入索引,或者對這個網址進行問題排查。

還有一個好方法可用來檢查網站能否索引,就是使用爬取工具,推薦

Screaming Frog

Screaming Frog是最強大、使用最普遍的爬取軟體之一。它有付費版本和免費版本,可以根據網站的大小進行選擇。

免費版本的功能有限,抓取的數量限於500個URL。而付費版本的年費是149英鎊,有很多的功能和可用API,沒有抓取限制。

網站建設該如何去最佳化呢?

執行爬取軟體之後,就可以看到和索引相關的兩列結果。

Indexability:

可索引性,顯示URL能否被編入索引,是“可索引”還是“不可索引”。

Indexability Status:

可索引性狀態,顯示URL不可索引的原因是什麼,是不是被編為了另一個URL,或是帶有無索引標籤。

這個工具是批次稽核網站一種很好的方式,可以瞭解哪些網頁正在被編入索引,哪些網頁不可被編入索引,這些都會顯示在結果中。

對列進行排序並查詢異常的情況,使用Google Analytics API,能有效識別出可索引的重要頁面。

最後,還可以使用這個網站檢查你的頁面有多少是已經索引的:domain Google Search parameter。

在搜尋欄中輸入site:

yourdomain並按Enter鍵,就可以看到網站上已被Google編入索引的每個網頁。

示例:

網站建設該如何去最佳化呢?

這裡我們看到boots。com有大約95,000個已經索引的URL,透過這個功能我們知道Google現在儲存了多少網頁。

如果你的網頁數量和被谷歌索引的數量差很多。

那麼你應該思考:

網站的HTTP版本是否仍在編入索引?

已被編入索引的頁面有沒有重複的,需要規範化的?

網站的大部分內容是否應該被編入索引?

透過這三個問題,瞭解谷歌如何將網站編入索引,以及如何做出相應更改。

03

檢視站點地圖

SEO還有一個不能忽略的重要方面:站點地圖。XML站點地圖是你的網站到Google和其它搜尋引擎爬蟲的地圖。

實際上,站點地圖幫助這些爬蟲給你的網頁排名。

有效的站點地圖有幾點值得注意:

站點地圖要在XML文件中正確格式化。

站點地圖應該遵循XML站點地圖協議。

只包含規範版本的網址。

不包含沒有索引的網址。

更新或建立新頁面時,要包括所有新頁面。

關於站點地圖的小工具:

1。 Yoast SEO外掛,可以建立XML站點地圖。

2。 Screaming Frog,它的站點地圖分析非常詳細。

另外,還可以在站點題圖上檢視網址,遺失的網址或者是少見的網址。

網站建設該如何去最佳化呢?

確保站點地圖包含最重要的頁面,排除不用編進Google索引的頁面,並且結構要正確。完成這些操作之後,你應該將站點地圖重新提交到Google Search Console。

04

網站要適應移動端裝置

谷歌去年宣佈了會優先對移動端進行索引。也就是說,網頁的移動端版本會優先於電腦端版本,進行排名和索引,因為大部分使用者主要使用移動裝置進行網頁訪問,所以網站排名也會給移動端優先的權利。

作者:顧小北B2C(

www.guxiaobei.com

,微信公眾號:

guxiaobei365

)是跨境電商領域權威的B2C營銷專家,擅長SNS(Facebook,Instagram,pinterest,Twitter,YouTube等一系列社交營銷),SEO,Amazon,分享跨境電商經驗以及心得。可搜尋微信公眾號

小北的夢囈

,關注更多資訊。

本文由 @顧小北原創釋出於頭條號,未經許可,禁止轉載。