
क्या सर्च इंजन रैंकिंग खोने का खतरा है? सब कुछ ठीक लगने के बावजूद अब कोई Google रैंकिंग नहीं? - छवि: एक्सपर्ट.डिजिटल
खोज इंजन अनुक्रमण समस्या को तर्कसंगत रूप से हल करें - इस बार इसके पीछे क्या है?
पिछले कुछ दिनों में, मैंने कुछ चिंताजनक बात देखी: मेरे सबसे हाल के लेख अब Google समाचार में अनुक्रमित नहीं किए जा रहे थे, और Google डिस्कवर से ट्रैफ़िक लगातार कम हो रहा था। निःसंदेह, ऐसे घटनाक्रम आपको उदासीन नहीं छोड़ते। मेरे दिमाग में कई तरह की बेबुनियाद धारणाएँ घूम रही थीं, लेकिन मैंने उन्हें एक तरफ रख देने और समस्या से तर्कसंगत तरीके से निपटने का फैसला किया।
जब मैंने मैन्युअल रूप से अपने पेज Google को सबमिट किए, तो उन्हें तुरंत अनुक्रमित और प्रदर्शित किया गया। हालाँकि, अगर मैंने इंतज़ार किया, तो कुछ नहीं हुआ। मैंने इस घटना को दो दिनों तक देखा। इसलिए अब कारण की गहन खोज का समय आ गया है।
चरण 1: हाल के परिवर्तनों की समीक्षा करें
सबसे पहले, मैंने खुद से पूछा: वेबसाइट पर आखिरी बार कौन सी चीज़ संपादित की गई थी? त्रुटि के संभावित स्रोतों को कम करने के लिए हाल के परिवर्तनों की पहचान करना आवश्यक है। मेरे मामले में, मैंने हाल ही में कैशिंग सिस्टम पर दोबारा काम किया था।
चरण 2: सोच में छिपी त्रुटियों या त्रुटियों को पहचानें
कैशिंग ओवरहाल के अनपेक्षित दुष्प्रभाव हो सकते हैं। क्या सोच में छिपी हुई गलतियाँ या गलतियाँ हैं? मैंने नई सेटिंग्स की जाँच करना और संभावित विरोधों की तलाश शुरू कर दी।
चरण 3: कारण खोजें
एक गहन विश्लेषण के बाद, मैंने अपराधी की खोज की: मेरे सुरक्षा कॉन्फ़िगरेशन में एक नई बॉट परिभाषा ने एक महान काम किया था-अभिनीत बहुत अच्छी तरह से। आज, अनगिनत बॉट्स इंटरनेट पर घूमते हैं और सर्वर लोड को कम करने के लिए, अनावश्यक बॉट्स को अक्सर अवरुद्ध कर दिया जाता है। हालाँकि, Googlebot को गलत तरीके से "अनावश्यक बॉट्स" की श्रेणी में फिसल गया था। महान प्रभावों के साथ एक छोटा सा निरीक्षण।
माइक्रोसॉफ्ट बिंग वेबमास्टर टूल्स से नोट्स
बिंग वेबमास्टर टूल्स की रिपोर्ट से मेरे संदेह की पुष्टि हुई:
- “आपके हाल ही में प्रकाशित महत्वपूर्ण पृष्ठों में से कुछ IndexNow के माध्यम से प्रस्तुत नहीं किए गए थे। पता करें कि इसे IndexNow के माध्यम से प्रस्तुत करना महत्वपूर्ण क्यों है।
- आपके कुछ महत्वपूर्ण नए पृष्ठ आपके साइटमैप में शामिल नहीं हैं।
Google खोज कंसोल ने मुझे यह भी बताया कि बिना सामग्री वाले पृष्ठों को अनुक्रमित किया जा रहा था। इन सुरागों से स्पष्ट रूप से पता चला कि खोज इंजनों को मेरी सामग्री तक पहुंचने में परेशानी हो रही थी।
निष्कर्ष
यह अहसास गंभीर था: मैं ऐसे पेज देखता हूं जो Google नहीं देखता। खोज इंजनों के लिए मेरे पृष्ठों पर कब्जा करने के लिए, उनके बॉट्स की निर्बाध पहुंच होनी चाहिए। यदि Googlebot अवरुद्ध है, तो मेरी सामग्री अदृश्य रहेगी।
आप कैसे जांचते हैं कि Googlebot क्या देखता है?
यह सुनिश्चित करने के लिए कि Googlebot मेरी वेबसाइट को सही ढंग से क्रॉल कर सके, मैं पृष्ठों को उसके परिप्रेक्ष्य से देखना चाहता था। Googlebot की तरह किसी वेबसाइट पर जाने के कई तरीके हैं।
1. Google Chrome डेवलपर टूल का उपयोग कैसे करें
Google Chrome के डेवलपर टूल का उपयोग करना एक सरल तरीका है:
- डेवलपर टूल खोलें: `Ctrl + Shift + I` (विंडोज़) या `Cmd + Shift + I` (मैक) दबाएँ।
- नेटवर्क टैब पर स्विच करें: सभी नेटवर्क गतिविधि यहां प्रदर्शित होती है।
- उपयोगकर्ता एजेंसी का समायोजन: शीर्ष दाईं ओर तीन बिंदुओं पर क्लिक करें, "अधिक उपकरण" चुनें और फिर "नेटवर्क की स्थिति"। "उपयोगकर्ता स्वचालित रूप से चयन करें" विकल्प को निष्क्रिय करें और सूची से "GoogleBot" चुनें।
- पृष्ठ पुनः लोड करें: पुनः लोड करने पर पृष्ठ वैसा ही प्रदर्शित होता है जैसा Googlebot उसे देखता है।
यह विधि संभावित रेंडरिंग समस्याओं या अवरुद्ध संसाधनों की पहचान करना संभव बनाती है।
2. उपयोगकर्ता एजेंट स्विचर का उपयोग
वैकल्पिक रूप से, एक ब्राउज़र एक्सटेंशन जैसे "उपयोगकर्ता एजेंट स्विचर" का उपयोग किया जा सकता है:
- एक्सटेंशन इंस्टॉल करना: क्रोम वेब स्टोर में यूजर-एजेंट स्विचर खोजें और इसे इंस्टॉल करें।
- उपयोगकर्ता एजेंट के रूप में Googlebot का चयन: स्थापना के बाद, आप वांछित उपयोगकर्ता एजेंट का चयन कर सकते हैं।
- वेबसाइट पर जाना: पृष्ठ अब Googlebot के परिप्रेक्ष्य से प्रदर्शित होता है।
यह त्वरित परीक्षण के लिए विशेष रूप से उपयोगी है और यदि आप विभिन्न उपयोगकर्ता एजेंटों के बीच बार-बार स्विच करना चाहते हैं।
3. स्क्रीमिंग फ्रॉग SEO स्पाइडर का उपयोग करना
"स्क्रीमिंग फ्रॉग एसईओ स्पाइडर" गहन विश्लेषण के लिए उपयुक्त है:
- उपयोगकर्ता एजेंसी का अनुकूलन: "कॉन्फ़िगरेशन> उपयोगकर्ता-एजेंट" पर जाएं और GoogleBot का चयन करें।
- क्रॉल प्रक्रिया शुरू करना: टूल वेबसाइट को क्रॉल करता है और प्रदर्शित करता है कि Googlebot इसे कैसे देखता है।
- परिणामों का विश्लेषण करें: संभावित क्रॉलिंग समस्याओं या अवरुद्ध संसाधनों की पहचान करें।
यह टूल बड़ी वेबसाइटों और विस्तृत एसईओ ऑडिट के लिए आदर्श है।
4. गूगल सर्च कंसोल का उपयोग करना
Google खोज कंसोल बहुमूल्य अंतर्दृष्टि भी प्रदान करता है:
- यूआरएल जांच: वांछित यूआरएल दर्ज करें और लाइव परीक्षण शुरू करें।
- परिणामों का विश्लेषण करें: आप देख सकते हैं कि पृष्ठ अनुक्रमित है या नहीं और क्रॉलिंग में कोई समस्या है या नहीं।
- Google की तरह फ़ेच करें: यह सुविधा आपको यह देखने की अनुमति देती है कि Googlebot पेज को कैसे प्रस्तुत करता है।
यह उन विशिष्ट मुद्दों की पहचान करने में मदद करता है जो बॉट को पृष्ठ को सही ढंग से कैप्चर करने से रोक सकते हैं।
समस्या का समाधान
इन टूल का उपयोग करके, मैं यह पुष्टि करने में सक्षम था कि Googlebot वास्तव में अवरुद्ध था। समस्या को ठीक करने के लिए मैंने निम्नलिखित कदम उठाए:
1. बॉट परिभाषाओं का समायोजन
मैंने Googlebot और अन्य प्रमुख खोज इंजन बॉट्स को अवरुद्ध न करने के लिए सुरक्षा कॉन्फ़िगरेशन को अद्यतन किया।
2. robots.txt की जाँच करना
मैंने सुनिश्चित किया कि फ़ाइल में पहुंच को प्रतिबंधित करने वाला कोई निर्देश नहीं है।
3. साइटमैप अद्यतन
साइटमैप को नवीनीकृत कर दिया गया है और वेबमास्टर टूल्स को सबमिट कर दिया गया है।
4. निगरानी
अगले कुछ दिनों में, मैंने यह सुनिश्चित करने के लिए अनुक्रमण और ट्रैफ़िक की निगरानी की कि सब कुछ फिर से सुचारू रूप से चल रहा है।
भविष्य के लिए निवारक उपाय
भविष्य में ऐसी समस्याओं से बचने के लिए मैंने कुछ संकल्प लिये हैं:
- सुरक्षा कॉन्फ़िगरेशन की नियमित रूप से समीक्षा करें: प्रत्येक परिवर्तन के बाद, वेबसाइट की कार्यक्षमता पर प्रभाव की जाँच की जानी चाहिए।
- निरंतर निगरानी: Google सर्च कंसोल जैसे टूल का उपयोग करने से समस्याओं की शीघ्र पहचान करने में मदद मिलती है।
- परिवर्तनों का स्पष्ट दस्तावेज़ीकरण: किसी त्रुटि की स्थिति में अधिक तेज़ी से प्रतिक्रिया करने में सक्षम होने के लिए वेबसाइट के सभी समायोजनों का दस्तावेज़ीकरण किया जाना चाहिए।
- प्रशिक्षण: खोज इंजन और उनके बॉट कैसे काम करते हैं इसकी बेहतर समझ गलत कॉन्फ़िगरेशन से बचने में मदद करती है।
इससे जो ज्ञान होता है
मुझे बेहतर पता होना चाहिए था और कैश को संपादित करते समय सावधान रहना याद रखना चाहिए था। लेकिन ऑपरेशनल ब्लाइंडनेस ने यहां कड़ा प्रहार किया। समस्या की पहचान की गई, हल किया गया, सीधा किया गया और अधिक सचेत रूप से जारी रखा गया।
तकनीकी त्रुटियाँ किसी वेबसाइट की दृश्यता पर महत्वपूर्ण प्रभाव डाल सकती हैं। मेरे मामले में, एक गलत कॉन्फ़िगर की गई बॉट परिभाषा के कारण Googlebot अवरुद्ध हो गया, जिसने मेरी सामग्री को अनुक्रमित करना बंद कर दिया।
एहसास: छोटे बदलावों के भी बड़े परिणाम हो सकते हैं।
व्यवस्थित समस्या निवारण और उपयुक्त उपकरणों के उपयोग के माध्यम से, मैं समस्या को पहचानने और हल करने में सक्षम था। यह नियमित रूप से जाँचना आवश्यक है कि खोज इंजन आपकी वेबसाइट को किस प्रकार देखते हैं।
मुझे आशा है कि मेरे अनुभव अन्य वेबमास्टरों को समान समस्याओं से बचने या उन्हें अधिक तेज़ी से हल करने में मदद करेंगे। किसी वेबसाइट की सफलता के लिए खोज इंजन में दृश्यता महत्वपूर्ण है, और इसलिए तकनीकी स्थिति को हमेशा ध्यान में रखा जाना चाहिए।
के लिए उपयुक्त: