Robots.txt फाइल एक ऐसी फाइल है के इसे कभी अनदेखा नहीं करना चाहिए | हमें गूगल सर्च कन्सोल से कभी चेतावनी मिलती है |

“Sitemap contains URLs which are blocked by robots.txt” इसका अर्थ ये है के आप की वेबसाइट गूगल क्रौलर को आने की मनाई की गयी है | 

 इस पोस्ट में आप robots.txt फाइल का संक्षिप्त परिचय और ये कैसे काम करेगी और साथ ही साथ आनेवाले एरर को कैसे हल किया जाये इसके बारे में विस्तारपूर्वक जानने की कोशिश करते है |

Robots.txt क्या है?

Robots.txt फाइल टेक्स्ट आधारित फाइल हैं जो सर्च इंजन को बताती हैं कि उन्हें कोनसा डेटा देखना चाहिए और कोनसे डेटा को  अनदेखा करना है। जब आप एक नया पोस्ट या पेज अपनी वेबसाइट पर प्रकाशित करते हैं, तो सर्च इंजन के बॉट्स खोज परिणामों में इसे इंडेक्स करने के लिए इस सामग्री (content)  को क्रॉल करते हैं।

यदि आपके पास अपनी वेबसाइट के कुछ पेज या पोस्ट हैं जिन्हें आप इंडेक्स नहीं करना चाहते हैं तो आप सर्च बॉट को बता हैं की किस फाइल/फोल्डर को इंडेक्स नहीं करना ताकि वे परिणाम सर्च इंजिन पर दिखाई न दें।

उदाहरण के लिए, हम अपने wp-admin/ फोल्डर को  Disallow करते है तो बॉट disallow किये हुए फाइल और फोल्डर को छोड़ देगा और बाकी सभी फाइल को क्रौल कर लेगा | वैसे ही हम अपने वेबसाइट पे टैग लगाते हमने टैग इंडेक्स ना करने के लिए निर्देश दिए होंगे तो टैग के पेज  इंडेक्स नहीं होते। 

बॉट अपनी वेबसाइट पे आने के बाद पहले Robots.txt फ़ाइल पे जाके देखता है के उसके लिए क्या दिशानिर्देश दिए गए है | उसी के हिसाब से बॉट जिस डेटा / फाइल को डिसअलाऊ किया है उसे छोड़ देता है और बाकी के पेज को इंडेक्स कर लेता है। 

Robots.txtफाइल को कैसे बनाए ?

वर्डप्रेस वेबसाइट पे प्लगइन के माध्यम से बनाया जाता है |  SEO प्लगइन हमारा ये काम आसान कर देता है और खुद फाइल को बनाता है। हमें अपने प्लगइन को सेटअप करते वक्त बताना होतो है के क्या इंडेक्स करना है।  और किसे छोड़ देना है। मै खुद अपनी सभी साइट पे टैग और केटेगरी पेज को डिसअलोव करता हु। 

Robots.txt फ़ाइल की निर्माण प्रक्रिया काफी सरल है और इसे मैन्युअल रूप से मतलब खुद लिख कर बना सकते है |

विभिन्न नियम हैं जिन्हें आप अपनी robots.txt फ़ाइल में परिभाषित कर सकते हैं और आप जो भी परिभाषित करना चाहते हैं वह आपकी अपनी आवश्यकताओं पर निर्भर करेगा। आपके वर्डप्रेस में SEO प्लगइन होगा तो ये फाइल को SEO प्लगइन द्वारा पहले से ही अपडेट किया होगा |  

आप Robot.txt फाइल चेक करने के लिए गूगल के इस लिंक पे जाके आपकी फाइल प्रॉपर्ली वर्क कर रही है या नहीं ये आप चेक कर सकते है | URLs which are blocked by robots.txt

Robots txt  फाइल में आनेवाले प्रोब्लेम

Sitemap contains URLs which are blocked by robots.txt

ब्लॉक किए गए साइटमैप URL आमतौर पर वेब डेवलपर्स द्वारा अपने robots.txt फ़ाइल को अनुचित रूप से कॉन्फ़िगर करने के कारण होते हैं।

जब आप अस्वीकार कर रहे हैं, तो आपको यह सुनिश्चित करने की आवश्यकता है कि आप जानते हैं कि आप क्या कर रहे हैं, यह चेतावनी दिखाई देगी और वेब क्रॉलर अब आपकी साइट को क्रॉल करने में सक्षम नहीं हो सकते हैं।

  • अपने robots.txt फ़ाइल के भीतर “Disallow Rules ” की जाँच करें।
  • cache प्लगइन में जाके Purge All caches ऑप्शन से क्लीन कर ले |
  • Google Console में से मैन्युअली आपके वेबसाइट को crawl कर ले (Search Console property > Crawl > Fetch) | गूगल फाइल चेकर से आपकी साइट प्रॉपरली काम कर रही है ये देख ले |

आपको इस लेख के जरिए robots.txt फाइल के बारे जो जरुरी है वो जानकारी मिली होगी ऐसी मै आशा करता हु।  यदि कोई संदेह या सवाल मन में हो तो कमेंट के जरिए पूछ सकते है। 

प्रातिक्रिया दे

आपका ईमेल पता प्रकाशित नहीं किया जाएगा.