2.建立起robots.txt文件。seorobots文件是搜索引擎登陸網(wǎng)站第一個(gè)ftp訪問的文件,robots這個(gè)可以設(shè)置里容許被不能訪問的搜索引擎,最主要的那就設(shè)置不允許Allow和不允許Disallowftp連接的目錄和文件,少寫Disallow,多寫Allow,用意是約束爬蟲抓取網(wǎng)站的信息。至于,在robots文件底部告訴眾人網(wǎng)站的sitemap文件的目錄,爬蟲讀取其中的sitemap路徑,隨即直接抓取其中相音樂鏈接的網(wǎng)頁。提高網(wǎng)站的收錄文章量。
案例:??按到ctrl鍵然后點(diǎn)擊:/robots.txt
3.組建網(wǎng)站的sitemap地圖文件。sitemap是一個(gè)將網(wǎng)站欄目和連接按性質(zhì)分類的一個(gè)文件,可以更合適地將網(wǎng)站展示更多給搜索引擎,增強(qiáng)爬蟲的爬取效率。sitemap地圖文件包含html(對(duì)于用戶)和xml(對(duì)于搜索引擎)兩種。當(dāng)網(wǎng)站更新正常的時(shí)候,sitemap文件要可以做到自動(dòng)出現(xiàn)自動(dòng)更新(程序基于),更新完不不穩(wěn)定的可以不自動(dòng)自動(dòng)更新并提交。
4.圖片img標(biāo)簽需要加上alt屬性,并寫清圖片的含義。
5.h1~h6標(biāo)簽合理使用。按道理所有的標(biāo)簽都要根據(jù)自身的語氣合理去建議使用,這里不展開講訴,這里只講h標(biāo)簽的注意事項(xiàng)。h1標(biāo)簽一個(gè)頁面沒有辦法出現(xiàn)1次,h2標(biāo)簽一般作為二級(jí)標(biāo)題或是文章的小標(biāo)題。最合理不的使用時(shí)h1~h6按順序優(yōu)先劣后開去,好像不行斷層或是反序。
官方微信
TOP