1. 
          

          1. 新聞動(dòng)態(tài)

            網(wǎng)站建設要從哪幾個(gè)方面進(jìn)行優(yōu)化?

            網(wǎng)站建設 發(fā)布者:swl 2020-08-19 08:26 訪(fǎng)問(wèn)量:110

            網(wǎng)站建設要從哪幾方面來(lái)優(yōu)化呢?  

            不論你的網(wǎng)站是用Shopify建立的,還是Wordpress,還是Magento,要注意你的網(wǎng)站都要做優(yōu)化  

            我們在講到針對一個(gè)網(wǎng)站的優(yōu)化,特別是站內優(yōu)化的時(shí)候,其實(shí)主要包含  

            2大方面:  

            -一是針對頁(yè)面的SEO(on-page)  

            -另外一個(gè)是網(wǎng)站結構優(yōu)化,也叫做技術(shù)性SEO  

            由于搜索結果的競爭越來(lái)越激烈,對SEO在技術(shù)上的優(yōu)化也提出了更高的要求。  

            一個(gè)表現良好的網(wǎng)站,必須要是可抓取、快速、安全的網(wǎng)站。  

            技術(shù)性SEO包含的內容很多,涵蓋網(wǎng)站的結構設計、URL、網(wǎng)絡(luò )地圖等內容,而且是一個(gè)技術(shù)性很強的方面。  

            今天我主要說(shuō)一說(shuō)網(wǎng)站技術(shù)SEO的六個(gè)基本方面,做好這六大方面,網(wǎng)站的性能會(huì )更加優(yōu)化和健康。  

            很多人可能看到這一章節會(huì )覺(jué)得很枯燥,但是其實(shí)是很重要的。  

            為什么呢?  

            因為一個(gè)網(wǎng)站,如果你花了很多時(shí)間在獲取流量上,比如廣告,比如紅人,但是基本的文章的audit(審視)都沒(méi)有過(guò)關(guān)的話(huà),那么無(wú)形之中會(huì )大大增加你網(wǎng)站的營(yíng)銷(xiāo)費用。  

            試想一下一個(gè)2秒打開(kāi)速度的網(wǎng)站,和一個(gè)十秒才打開(kāi)的網(wǎng)站,那效果能一樣嗎?  

            所以從一個(gè)網(wǎng)站的優(yōu)化角度來(lái)講,特別是技術(shù)性?xún)?yōu)化的角度來(lái)探討,我們要從以下幾點(diǎn)進(jìn)行優(yōu)化:  

            01  

            確保網(wǎng)站可抓取  

            對于搜索引擎優(yōu)化,做好優(yōu)質(zhì)內容是必須的。但是只有優(yōu)質(zhì)內容還不夠,如果搜索引擎抓取不到這個(gè)頁(yè)面,那你辛辛苦苦編寫(xiě)的內容不是白費了嗎?  

            確保網(wǎng)站可抓取,首先要檢查robots.txt文件,這個(gè)文件是任何網(wǎng)絡(luò )爬行軟件到達站點(diǎn)時(shí)的***個(gè)調用點(diǎn)。  

            robots.txt文件會(huì )明確應該被抓取的和不應該被抓取的部分,表現為允許(allow)、禁止(disallow)某些用戶(hù)代理的行為。  

            通過(guò)將/robots.txt添加到根域末尾,可以公開(kāi)使用robots.txt文件。我們看一下Hallam網(wǎng)站的示例:  

            可以看到,Hallam網(wǎng)站不允許以/wp-admin(網(wǎng)站后端)開(kāi)頭的URL被抓取。通過(guò)指明哪些地方禁止這些URL,可以節省帶寬、服務(wù)器資源和爬網(wǎng)預算。  

            與此同時(shí),搜索引擎爬蟲(chóng)抓取網(wǎng)站的重要部分時(shí),不應該受到禁止。  

            因為robots.txt是爬蟲(chóng)在抓取網(wǎng)站時(shí)看到的***個(gè)文件,所以***好是將robots.txt指向站點(diǎn)地圖??梢栽谂f版的GoogleSearchConsole中編輯和測試robots.txt文件。  

            robots.txt的測試工具中,下面的網(wǎng)址欄輸入任何網(wǎng)址,就可以檢查這個(gè)網(wǎng)址能否被抓取,robots.txt文件中有沒(méi)有錯誤和警告。  

            因為舊版的GoogleSearchConsole功能要比新版本的功能多一些,在技術(shù)SEO方面舊版本會(huì )更好用一些。

            比方說(shuō),舊版本可以查看站長(cháng)工具上的抓取統計信息區域(CrawStats),對于了解網(wǎng)站的抓取方式會(huì )更加的方便。  

            這個(gè)報告有3個(gè)圖表,顯示了***近3個(gè)月的數據。  

            每天抓取的網(wǎng)頁(yè)數量、每天下載的千字節數、下載網(wǎng)頁(yè)所花費的時(shí)間(以毫秒為單位),能夠顯示網(wǎng)站的抓取速度及和搜索引擎爬蟲(chóng)的關(guān)系。  

            搜索引擎爬蟲(chóng)定期訪(fǎng)問(wèn)某網(wǎng)站,并且這是一個(gè)快速而且容易被抓取的網(wǎng)站的話(huà),這個(gè)網(wǎng)站就會(huì )有很高的抓取速度。  

            這些圖表數據如果能保持一致是***好的,任何重大波動(dòng)都會(huì )出問(wèn)題,可能是HTML損壞,內容陳舊或robots.txt文件阻止了太多URL。  

            如果加載一個(gè)頁(yè)面需要很長(cháng)時(shí)間,表示爬蟲(chóng)爬取時(shí)間太長(cháng),建立索引速度較慢。  

            還可以在新版的GoogleSearchConsole查看覆蓋率報告中的抓取錯誤。  

            這些地方都是有爬取問(wèn)題的頁(yè)面,點(diǎn)擊可以顯示這些頁(yè)面。檢查這些頁(yè)面是什么原因導致的爬取問(wèn)題,***好不是很重要的頁(yè)面,盡快解決這些問(wèn)題。  

            如果你在CrawStats或覆蓋率報告中,發(fā)現重大的抓取錯誤或波動(dòng),可以對日志文件進(jìn)行分析查看。  

            從服務(wù)器日志訪(fǎng)問(wèn)原始數據可能會(huì )比較麻煩,因為分析是高級設置,但它有助于準確理解哪些頁(yè)面可以被抓取、哪些不能抓取。  

            哪些頁(yè)面會(huì )被優(yōu)先處理,哪些區域出現了預算浪費的情況,還有爬蟲(chóng)在爬取網(wǎng)站的過(guò)程中收到哪些服務(wù)器響應。  

             




            關(guān)鍵字:

            文章連接: http://www.gostscript.com/wzjss/731.html

            版權聲明:文章由 晨展科技 整理收集,來(lái)源于互聯(lián)網(wǎng)或者用戶(hù)投稿,如有侵權,請聯(lián)系我們,我們會(huì )立即刪除。如轉載請保留

            双腿国产亚洲精品无码不卡|国产91精品无码麻豆|97久久久久久久极品|无码人妻少妇久久中文字幕
                1.