การทดลอง - ผลกระทบของเนื้อหาที่ไม่ซ้ำกับตำแหน่งในยานเดกซ์ เกี่ยวกับเนื้อหาที่ไม่ซ้ำใครและการขโมยเนื้อหาที่ไม่ซ้ำ Yandex.Webmaster - ข้อความต้นฉบับ

ความสำคัญของเนื้อหานั้นยากที่จะประเมินสูงไป หากไซต์มีเนื้อหาที่มีคุณภาพจำนวนมาก แสดงว่าไซต์นั้นถึงวาระที่จะประสบความสำเร็จ แต่ทุกอย่างจะดีถ้าไม่ใช่เพื่อสิ่งหนึ่ง: เนื้อหาจะต้องเป็นของคุณเอง- ของคุณเอง มีเอกลักษณ์ น่าสนใจ และมีประโยชน์ และนี่คือคำว่า " มีเอกลักษณ์» 90% ของผู้ที่ค้นพบความสวยงามของเนื้อหาถูกตัดออกไป

และจริง ๆ แล้วทำไมต้องประดิษฐ์อะไรบางอย่างขึ้นมาถ้าทุกอย่างถูกประดิษฐ์ขึ้นแล้ว? อินเทอร์เน็ตมีขนาดใหญ่และทุกอย่างก็ถูกเขียนไว้ที่นั่นแล้ว ทำไมต้องคิดค้นวงล้อใหม่? เรานำข้อความบางส่วนจาก Wikipedia ย่อหน้าจำนวนหนึ่งจากเว็บไซต์ของคู่แข่ง วลีสวยๆ เล็กน้อยจากไซต์ต่างๆ จากผลการค้นหาอันดับต้นๆ แล้วตกแต่งด้วยรูปถ่ายจาก Google Images ลิงค์ไปยังแหล่งที่มา? ไม่ ไม่ ฉันได้ยินแล้ว เพียงเท่านี้บทความก็พร้อมแล้ว ยินดีต้อนรับสู่โลกแห่งการเขียนคำโฆษณาสมัยใหม่!

เนื้อหาที่ไม่ซ้ำใคร

เนื้อหาที่ไม่ซ้ำใครเป็นพื้นฐานของอินเทอร์เน็ต- มีการสื่อสารด้วยแต่หัวข้อนี้อยู่นอกเหนือขอบเขต นั่นคือผู้ใช้อินเทอร์เน็ตนอกเหนือจากโอกาสในการสื่อสารแล้วยังไปที่อินเทอร์เน็ตเพื่อเข้าถึงข้อมูลบางอย่างที่พวกเขาสนใจ การค้นหาเนื้อหาคือสิ่งที่เครื่องมือค้นหามีไว้อย่างแท้จริง และคุณค่าของเครื่องมือค้นหาเหนือสิ่งอื่นใด ยานเดกซ์พูดอย่างเปิดเผย สิ่งสำคัญสำหรับยานเดกซ์คือเนื้อหา- การเปรียบเทียบสำหรับ Google - "เนื้อหาคือราชา"- ดังนั้นเครื่องมือค้นหาจึงให้ความสำคัญกับผู้ที่ส่งเนื้อหาเป็นประจำเป็นส่วนใหญ่ เนื้อหาที่ไม่ซ้ำใครและเกี่ยวข้อง.

คำถาม, สิ่งที่ถือเป็นเนื้อหาที่ไม่ซ้ำใครเป็นเรื่องน่าตื่นเต้นมานานแล้วสำหรับจินตนาการของผู้คนที่ต้องการปกป้องสิทธิ์ทางปัญญาของตนหรือต้องการผลกำไรจากผลงานของผู้อื่น ฉันไม่อยากทะเลาะวิวาท แต่การสร้างบางสิ่งตั้งแต่เริ่มต้นนั้นแทบจะเป็นไปไม่ได้เลย ในการสร้างบางสิ่งบางอย่าง คุณต้องสร้างมันขึ้นมาจากบางสิ่งบางอย่าง นั่นคือสิ่งใหม่ปรากฏขึ้นบนพื้นฐานของสิ่งที่มีอยู่แล้วและการประกาศว่า: "ฉันสร้างสิ่งนี้!" อย่างน้อยก็แปลก

อย่างไรก็ตาม นี่ไม่ได้หมายความว่าไม่ควรให้รางวัลแก่แรงงาน เวลา และความพยายามเลย และถูกยืมน้อยกว่ามาก ดังนั้นคำถามจึงไม่เกี่ยวกับการปกป้องสิทธิ์หรือแม้แต่การสร้างปัญหาในการใช้เนื้อหาของผู้อื่นมากนัก แต่เกี่ยวกับ เร่งความเร็วและทำให้การจัดทำดัชนีง่ายขึ้นนั่นคือในการรับรู้เนื้อหาว่าเป็นแหล่งต้นฉบับของคุณ

ข้อความที่ไม่ซ้ำกัน

เนื้อหาได้รับการประเมินความสามารถในการนำไปใช้และประโยชน์ที่เป็นไปได้ที่เนื้อหานี้สามารถนำมาได้ แต่ถ้าเรากำลังพูดถึงเนื้อหาจากมุมมองของเสิร์ชเอ็นจิ้นความเป็นเอกลักษณ์ของเนื้อหาจะถูกเพิ่มเข้ากับการบังคับใช้เนื้อหาที่อาจเกิดขึ้น ดังนั้นจึงเกิดคำถามว่าใครเป็นคนกำหนดเอกลักษณ์ของเนื้อหา? แท้จริงแล้วความเป็นเอกลักษณ์ของเนื้อหานั้นเป็นแนวคิดเชิงเปรียบเทียบ

แล้วใคร อย่างไร อะไร และอะไรจะเปรียบเทียบ? พวกเขาเปรียบเทียบเครื่องมือค้นหา เปรียบเทียบเนื้อหาใหม่กับเนื้อหาที่จัดทำดัชนีไว้แล้ว พูดโดยคร่าวๆ ผู้ที่ข้อความถูกจัดทำดัชนีก่อนคือผู้ที่ข้อความเป็นต้นฉบับ ฉันขอย้ำโดยคร่าวว่าแหล่งที่มาของเนื้อหาต้นฉบับถือเป็นแหล่งข้อมูลที่มีการค้นพบเนื้อหานี้ครั้งแรก โดยคร่าวๆ เนื่องจากเนื้อหาประเภทต่างๆ จะขึ้นอยู่กับวิธีการวิเคราะห์ที่แตกต่างกันเพื่อระบุแหล่งที่มาดั้งเดิม สามารถสันนิษฐานได้ว่าแหล่งที่มาของเนื้อหาดั้งเดิมอาจมีการเปลี่ยนแปลงขึ้นอยู่กับข้อมูลที่สะสมเกี่ยวกับเนื้อหาและแหล่งที่มาของเนื้อหาและสถานะของแหล่งที่มาเหล่านี้

รูปภาพที่ไม่ซ้ำใคร

ลองมาถ่ายรูปกัน วันนี้เครื่องมือค้นหาพบรูปภาพใหม่ที่มีความละเอียด 640x480 บนเว็บไซต์หนึ่ง และพรุ่งนี้ก็มีรูปภาพเดียวกันที่มีความละเอียดสูงกว่า 800x600 ในอีกไซต์หนึ่ง ต้นทางคือใคร? ขึ้นอยู่กับและในความเป็นจริงเครื่องมือค้นหาที่พบรูปภาพเหล่านี้

เนื้อหาบนอินเทอร์เน็ตสามารถใช้ได้อย่างเสรี และผู้ใช้ทุกคนสามารถทำทุกอย่างที่ต้องการด้วยเนื้อหานี้ นี่เป็นเรื่องจริงโดยพื้นฐานแล้ว แน่นอนว่าบางคนสามารถอ้างได้ว่านี่คือภาพของเขาและเริ่มดำเนินคดีเกี่ยวกับการใช้เนื้อหาที่มีลิขสิทธิ์อย่างผิดกฎหมาย แต่ความสามารถในการใช้เนื้อหานี้จะไม่หายไป

ดังนั้นจึงไม่มีใครแน่ใจได้ว่าเนื้อหา 100% ที่เขาสร้างจะได้รับการยอมรับว่าเป็นผลงานของเขา 100% และไอคอน©จะไม่ช่วยอะไร

เนื้อหาที่ถูกขโมย

ข้อความถูกขโมย รูปภาพรูปภาพและรูปภาพทุกประเภทก็ถูกขโมยเช่นกัน วิดีโอกำลังถูกขโมย เพลงกำลังถูกขโมย พวกเขายังขโมยน้ำมัน แก๊ส ไม้ ผู้คน แมวน้ำ ความรัก อิสรภาพ และความเป็นอิสระ ทุกคนขโมย. คุณต้องเข้าใจสิ่งนี้ ยอมรับมัน และคิดว่าจะต่อต้านมันอย่างไร โดยเฉพาะอย่างยิ่งเมื่อพวกเขาคิดและคิดขึ้นมาเพื่อคุณจริงๆ แล้ว ทำไมไม่เอาเปรียบล่ะ?

ฉันจะไม่แสดงรายการวิธีที่เป็นไปได้ทั้งหมดในการต่อสู้กับการขโมยเนื้อหา (หากคุณต้องการจริงๆ เขียนความคิดเห็น เราสามารถเขียนบทความแยกต่างหากเกี่ยวกับเรื่องนี้ได้) ฉันจะพยายามอธิบายหลักการทั่วไปของการโพสต์และการคุ้มครองเนื้อหาบนอินเทอร์เน็ตเบื้องต้น

หลักการพื้นฐาน

หลักการแรกและสำคัญที่สุดคือความมีเอกลักษณ์สูงสุดของเนื้อหา- เห็นได้ชัดว่าตัวอักษรมีจำนวนจำกัดและมีเพียงสามสีเท่านั้น (โอเค ​​มีขาวดำด้วย) แต่ทุกข้อความมีโครงสร้างเชิงตรรกะที่เป็นเอกลักษณ์ และหากข้อความนั้นเขียนโดยบุคคล โครงสร้างเชิงตรรกะและลักษณะการเขียนก็จะกลายเป็นรอยประทับที่เป็นเอกลักษณ์ และเป็นไปไม่ได้ที่จะสร้างภาพถ่ายที่เหมือนกันทุกประการสองภาพ

บทสรุป: การสร้างเนื้อหาด้วยตนเอง โอกาสที่การจับคู่ที่มีนัยสำคัญจะเข้าใกล้ศูนย์

หลักการสำคัญประการที่สองคือความเร็วในการจัดทำดัชนี- ยิ่งเครื่องมือค้นหาค้นหาและจัดทำดัชนีเนื้อหาได้เร็วเท่าไร แหล่งที่มาของเนื้อหาก็จะยิ่งถูกระบุเร็วขึ้นเท่านั้น ตัวอย่างเช่น คุณกำลังเขียนบล็อกอยู่ แต่เครื่องมือค้นหาไม่ได้จัดทำดัชนีไซต์ของคุณอย่างดีด้วยเหตุผลใดก็ตาม ผู้ที่มีไซต์ได้รับการจัดทำดัชนีดีกว่า (เร็วกว่า) เริ่มขโมยเนื้อหาของคุณด้วยการคัดลอกและวางซ้ำๆ และวางบนเว็บไซต์ของพวกเขา หากเนื้อหาของคุณได้รับการจัดทำดัชนีเร็วขึ้นบนเว็บไซต์ของผู้อื่น เนื้อหานั้นจะไม่ใช่เนื้อหาของคุณ จากมุมมองของเสิร์ชเอ็นจิ้น แหล่งที่มาหลักจะเป็นไซต์ที่พบบทความของคุณเป็นครั้งแรก และปรากฎว่าคุณขโมยบทความไป

บทสรุป: ความเร็วในการจัดทำดัชนีสูงคือเพื่อนที่ดีที่สุดของคุณ

Yandex.Webmaster - ข้อความต้นฉบับ

นี่คือบริการที่คุณสามารถแจ้ง Yandex เกี่ยวกับลักษณะของข้อความต้นฉบับบนเว็บไซต์ได้

ข้อความอ้างอิง: หากคุณเผยแพร่ข้อความต้นฉบับบนเว็บไซต์ของคุณและพิมพ์ซ้ำโดยแหล่งข้อมูลอินเทอร์เน็ตอื่น ๆ ให้แจ้ง Yandex เกี่ยวกับการเปิดตัวข้อความที่ใกล้จะเกิดขึ้น เราจะรู้ว่าข้อความต้นฉบับปรากฏบนเว็บไซต์ของคุณเป็นครั้งแรก และเราจะพยายามใช้สิ่งนี้ในการตั้งค่าอัลกอริทึมการค้นหา

มีหลายวิธีในการป้องกันการใช้เนื้อหาของคุณในทางที่ผิด แต่สำหรับแต่ละคนมีหลายวิธีในการหลีกเลี่ยงพวกเขา และหากทราบว่ามีคนขโมยเนื้อหาของคุณอย่างเป็นระบบ คุณสามารถขอให้ลบเนื้อหาของคุณออกจากเว็บไซต์บุคคลที่สามหรือเริ่มดำเนินคดีทางกฎหมายได้ แต่แนวปฏิบัติแสดงให้เห็นว่าหากทรัพยากรของบุคคลที่สามไม่ลบเนื้อหาโดยสมัครใจ การพยายามดำเนินการให้สำเร็จผ่านทางศาลอาจมีค่าใช้จ่ายมากกว่าความเสียหายจากการขโมยเนื้อหา

โพสต์เนื้อหาที่เป็นเอกลักษณ์ของคุณเอง ลองพิจารณาว่าจะโพสต์เนื้อหาอย่างไร เมื่อใด และที่ไหน แล้วคุณจะมีความสุข :)

โพสต์ใหม่:

รับบทเรียนและเคล็ดลับเกี่ยวกับการตลาดทางอินเทอร์เน็ตฟรี

    เซอร์เกย์ บิวรีค

    สวัสดี!
    ตัวอย่าง: ฉันเป็นสตาร์ทอัพ ฉันเปิดร้านค้าออนไลน์ ในตอนแรกฉันไม่มีความสามารถทางกายภาพในการโพสต์เนื้อหาที่ไม่ซ้ำใคร และแน่นอนว่าผมคัดลอกและวางเยอะมาก แต่ตัวอย่างเช่น สิ่งต่างๆ ขึ้นเนิน ฉันมีทรัพยากร และฉันตัดสินใจที่จะปรับปรุงสถานการณ์ และเขาก็เริ่มเขียนข้อความอย่างเป็นระบบอย่างน้อยก็เขียนใหม่ เครื่องมือค้นหาจะจัดทำดัชนีหรือไม่
    และอีกคำถามหนึ่งคือความมีเอกลักษณ์กี่เปอร์เซ็นต์ที่ถือว่าเหมาะสม? เช่น 70% เพียงพอหรือจำเป็น 99 ไม่น้อยไป?
    ขอบคุณ)

    1. แอนตัน โซชนิคอฟ

      1. “...ฉันไม่มีความสามารถทางกายภาพในการโพสต์เนื้อหาที่ไม่ซ้ำใคร” หากไซต์ไม่มีอะไรจะเสนอให้กับเครื่องมือค้นหา ก็ไม่ต้องทำอะไรในผลการค้นหา
      2. “... เริ่มเขียนอย่างเป็นระบบอย่างน้อยก็เขียนข้อความใหม่ เครื่องมือค้นหาจะจัดทำดัชนีหรือไม่ เครื่องมือค้นหาจะจัดทำดัชนีไม่ว่าในกรณีใด
      3. “...เอกลักษณ์มีกี่เปอร์เซ็นต์...” เปอร์เซ็นต์สัมพันธ์กับอะไร? คุณรู้แน่ชัดหรือไม่ว่าเครื่องมือค้นหากำหนดเอกลักษณ์ของข้อความบนเว็บไซต์ได้อย่างไรและจะแสดงเป็นเปอร์เซ็นต์ได้อย่างไร
      4. “...ถือว่าเหมาะสมได้หรือ? เช่น 70% ก็เพียงพอแล้ว…” “พอดี” และ “เพียงพอ” เพื่ออะไร?

      จากตัวอย่างที่คุณให้มา: คุณกำลังพยายามอุดช่องโหว่ในเว็บไซต์โดยใช้ชื่อที่ทันสมัยว่า SEO โดยไม่เข้าใจอย่างถ่องแท้ว่ามันคืออะไรและเพราะเหตุใด SEO เป็นปัจจัยที่ซับซ้อนและสัมพันธ์กันอย่างมาก และการเขียนข้อความใหม่เพียงอย่างเดียวไม่ได้สร้างความแตกต่าง

      1. เซอร์เกย์ บิวรีค

        ฉันเข้าใจว่าช่องโหว่ SEO มีขนาดใหญ่ และมีหลายปัจจัยที่มีอิทธิพลต่อขนาดของช่องดังกล่าว และกำลังดำเนินการแก้ไขอยู่ ลองใช้สถานการณ์สมมติที่ปัญหาทางเทคนิคทั้งหมดได้รับการแก้ไขไม่มากก็น้อย แต่เนื้อหายังคงเดิม กล่าวคือ ไม่ซ้ำใคร ดังนั้นฉันจึงเขียน เขียนข้อความใหม่ ตรวจสอบบน Advego Plagiarism หรือด้วยวิธีอื่น และโปรแกรมบอกฉันว่ามันมีเอกลักษณ์ 70% และเน้นส่วนของข้อความที่มีอยู่แล้วในเว็บไซต์อื่น และที่นี่ฉันแค่อยากถามคำถามกับผู้เชี่ยวชาญ: "เครื่องมือค้นหาจะกำหนดเอกลักษณ์ของข้อความบนเว็บไซต์ได้อย่างไรและจะแสดงเป็นเปอร์เซ็นต์ได้อย่างไร" ฉันเข้าใจว่าอัลกอริทึมเหล่านี้อาจไม่เป็นที่รู้จัก แต่อย่างน้อยฉันก็อยากจะเข้าใจหลักการ และ "เหมาะสม" หมายความว่าข้อความถูกรับรู้โดยเครื่องมือค้นหาว่าไม่ซ้ำใคร สับสนนิดหน่อย แต่หวังว่าจะชัดเจนอย่างน้อยก็สักนิด)

        1. แอนตัน โซชนิคอฟ

          ไม่มีค่าที่ชัดเจนที่สามารถระบุลักษณะความคิดริเริ่มของข้อความใดข้อความหนึ่งผ่านสายตาของเครื่องมือค้นหาได้ จึงไม่มีประโยชน์ที่จะเน้นเรื่องนี้ นั่นคือแท้จริงแล้วเราไม่ควรคำนึงถึงความแปลกใหม่ของเนื้อหาหากเราเองเป็นแหล่งที่มาของเนื้อหา ซึ่งหมายความว่าการเขียนข้อความใหม่ถือเป็นการเล่าใหม่โดยอิสระ ถือเป็นต้นฉบับ การค้นหาเปอร์เซ็นต์ที่ตรงกับข้อความต้นฉบับเป็นสิ่งที่ดีเพราะจะทำให้คุณสามารถย้ายออกจากแหล่งที่มาได้ไกลยิ่งขึ้น แต่ที่นี่ทุกอย่างก็ไม่ง่ายเช่นกัน เครื่องมือค้นหาเช่น Google หรือ Yandex จดจำคำพ้องความหมายและอ่านตรรกะของข้อความได้อย่างสมบูรณ์แบบ ตามหลักการแล้ว เมื่อเขียนใหม่ โครงสร้างเชิงตรรกะในข้อความควรเปลี่ยนแปลง และแทนที่จะใช้คำพ้องความหมาย ควรใช้คำพ้องความหมายเชิงตรรกะจะดีกว่า (คุณสามารถอธิบายสิ่งเดียวกันด้วยคำที่ต่างกันและมีความหมายต่างกันได้เสมอ) Google เขียนไว้ที่ไหนสักแห่งว่าสิ่งที่สำคัญไม่ใช่ความเป็นเอกลักษณ์ของข้อความมากนัก แต่เป็นความคิดเห็นเฉพาะที่บุคคลแสดงออกโดยใช้ข้อความ ดังนั้นฉันจึงเขียนข้างต้นเกี่ยวกับการบอกเล่าแหล่งที่มาฟรี ซึ่งก็คือการเขียนใหม่เฉพาะบุคคล ในร้านค้าออนไลน์งานอาจยากขึ้นเนื่องจากคำอธิบายข้อความมักจะมีปริมาณน้อยและเป็นการยากที่จะแสดงความคิดริเริ่ม แต่สาระสำคัญของแนวทางไม่เปลี่ยนแปลง หากคุณสร้างคำอธิบายข้อความที่เป็นต้นฉบับ แปลกตา และให้ข้อมูลมากขึ้น คุณจะเห็นว่าคำอธิบายเหล่านั้นจะมีอันดับดีกว่าคำอธิบายมาตรฐานของคู่แข่งอย่างแน่นอน

  • สวัสดีทุกคน! ดังที่คุณทราบ ความเป็นเอกลักษณ์ของเนื้อหามีผลดีต่อตำแหน่งของเว็บไซต์ในเครื่องมือค้นหา การทดลองได้ดำเนินการกับโครงการของลูกค้ารายหนึ่งในช่วงหลายเดือนเพื่อตรวจสอบผลกระทบของการแทนที่เนื้อหาที่ไม่ซ้ำกับตำแหน่งในเครื่องมือค้นหา ในโพสต์นี้ ผมจะพูดถึงคุณลักษณะของการศึกษานี้ รวมถึงผลลัพธ์ที่ได้รับ

    เนื้อหาที่ไม่ซ้ำใครจะถูกเผยแพร่ในทรัพยากรที่วิเคราะห์เสมอ แต่หลังจากนั้นไม่นานข้อความจากหน้าที่โปรโมตบางหน้าก็ถูกคัดลอกไปยังไซต์อื่น เมื่อค้นหาข้อความในเครื่องหมายคำพูดใน Yandex และ Google เอกสารบางฉบับที่มีเนื้อหาที่คัดลอกมาจะต่ำกว่าต้นฉบับบางฉบับก็สูงกว่า งานนี้ได้รับการตั้งค่าให้ดำเนินการทดลองที่สามารถช่วยพิจารณาว่าเครื่องมือค้นหารู้สึกอย่างไรเกี่ยวกับการแทนที่เนื้อหาที่ไม่ซ้ำใครด้วยเนื้อหาที่ไม่ซ้ำใคร โดยคำนึงถึงข้อเท็จจริงที่ว่าข้อความที่วิเคราะห์เป็นแหล่งข้อมูลหลัก

    เริ่มแรกภายในส่วนใดส่วนหนึ่งพบหน้าเว็บที่มีสำเนาใน Yandex เครื่องมือค้นหานี้ดึงดูดผู้เข้าชมมากกว่า Google ถึง 4 เท่า ซึ่งเป็นเหตุผลว่าทำไมจึงเลือกเป็นลำดับความสำคัญ การวิเคราะห์สำเนาเผยให้เห็น 24 หน้าที่ได้รับการส่งเสริมโดย 239 ข้อความค้นหา ทั้งหมดถูกแทนที่ด้วยเนื้อหาที่ไม่ซ้ำกัน เอกสารที่มีสำเนา แต่ครองตำแหน่งที่ดีในเครื่องมือค้นหาในประเทศ (ส่วนใหญ่อยู่ใน 5-10 อันดับแรก) ยังไม่มีการเปลี่ยนแปลง

    ผลลัพธ์แรกสามารถวัดได้หลังจากการจัดทำดัชนีหน้าใหม่และการอัปเดตข้อความใน Yandex ฉันจะไม่เผยแพร่พลวัตของตำแหน่งสำหรับแต่ละคำขอ เนื่องจากจะทำให้การโพสต์ยาวขึ้นอย่างมาก แต่ฉันจะพูดถึงตัวบ่งชี้ทั่วไปสำหรับช่วงเวลานั้น

    • "+" - จำนวนข้อความค้นหาที่มีตำแหน่งเพิ่มขึ้น
    • "-" - จำนวนคำขอที่มีการลดลง
    • "ความแตกต่างระหว่าง + และ -" คือความแตกต่างสัมบูรณ์ระหว่างจำนวนรวมของตำแหน่ง "ขึ้น" และจำนวนรวมของตำแหน่ง "ลง" ตัวอย่างเช่น คำค้นหาที่ 1 เพิ่มขึ้นจากอันดับที่ 30 มาที่ 11 (เพิ่มขึ้น 19 อันดับ) และคำค้นหาที่ 2 ลดลงจากอันดับที่ 25 มาเป็น 31 (ลดลง 6 อันดับ) "ความแตกต่างระหว่าง + และ -" จะเป็น +13 พารามิเตอร์นี้ให้ข้อมูลเพิ่มเติมเพื่อวัดประสิทธิผลของการเปลี่ยนแปลง
    • "ค่าเฉลี่ยต่อคำขอ" คือ "ความแตกต่างระหว่าง + และ -" หารด้วยจำนวนคำขอทั้งหมด จำนวนอันดับที่เพิ่มขึ้นหรือลดลงโดยเฉลี่ยต่อคำหลัก

    ดังนั้นหลังจากการจัดทำดัชนีหน้าใหม่ใน Yandex แล้ว การเติบโตเชิงบวกโดยรวมจะสังเกตเห็นได้ชัดเจน ในทางกลับกันใน Google มีผลเสีย (ยิ่งไปกว่านั้นรุนแรงกว่าผลบวก)

    ใน 3 สัปดาห์

    ผลลัพธ์สำหรับพารามิเตอร์เดียวกันหลังจากผ่านไป 3 สัปดาห์เท่านั้น

    ผลบวกใน Yandex ลดลงเล็กน้อย ในขณะที่ Google ผลเสียเพิ่มขึ้น

    3 เดือนหลังจากการจัดทำดัชนีใหม่

    ผลลัพธ์ 3 เดือนหลังจากการจัดทำดัชนีเนื้อหาใหม่ (ปลายเดือนพฤศจิกายนของปีนี้)

    ในยานเดกซ์ความแตกต่างแทบจะมองไม่เห็นใน Google ผลกระทบด้านลบลดลงเล็กน้อย ความแตกต่างบางอย่าง:

    1. ฉันเผยแพร่ข้อมูลล่าสุดสำหรับภาพรวม แต่ฉันเชื่อว่าข้อสรุปบางอย่างเกี่ยวกับการทดลองนี้สามารถสรุปได้จากสองตารางแรก 3 เดือนถือเป็นระยะเวลานานพอที่ปัจจัยการจัดอันดับอื่นๆ จะเข้ามาแทรกแซงอย่างจริงจัง
    2. ความบริสุทธิ์ของการทดสอบไม่สามารถเป็น 100% ในอัลกอริธึมการค้นหาสมัยใหม่ มีหลายปัจจัยที่มีอิทธิพลต่อตำแหน่งของไซต์ในการค้นหาอย่างต่อเนื่อง พิจารณาผลลัพธ์ที่ได้รับไม่ใช่เป็นความจริงสัมบูรณ์ แต่เป็นผลที่เป็นไปได้ของเหตุการณ์
    3. ในการประเมินประสิทธิภาพของการเปลี่ยนแปลงที่ได้รับ คุณยังสามารถใช้ข้อมูลเชิงปริมาณเพิ่มเติมในการสืบค้นได้ (เช่น รายการที่แน่นอนใน wordstat คือ “!”)

    บทสรุป

    ในยานเดกซ์การทดลองแสดงให้เห็นพลวัตเชิงบวก แต่ค่อนข้างน้อย Google บันทึกผลกระทบเชิงลบ ในเรื่องนี้ เราสามารถสรุปได้ว่าหากคุณแทนที่เนื้อหาที่มีสำเนาบนไซต์อื่นด้วยเนื้อหาที่ไม่ซ้ำ ให้ทำสิ่งนี้กับเพจเหล่านั้นที่ได้รับการจัดอันดับต่ำกว่าแหล่งข้อมูลด้วยเนื้อหาที่คัดลอก (ตามคำขอหรือโดยการค้นหาข้อความแต่ละชิ้นในเครื่องหมายคำพูด ) . อย่าแตะต้องเอกสารที่เหลือเนื่องจากเสิร์ชเอ็นจิ้นถือว่าพวกเขาเป็นแหล่งที่มาหลักแล้ว การวิเคราะห์ควรดำเนินการในเครื่องมือค้นหาที่มีลำดับความสำคัญซึ่งให้ผู้เข้าชมมากที่สุด

    คุณสามารถสรุปข้อสรุปอะไรได้บ้าง? คุณเคยทำการทดลองที่คล้ายกันบ้างไหม และคุณได้ผลลัพธ์อะไรบ้าง? โพสต์บทวิจารณ์และความคิดเห็นของคุณด้านล่าง

    ในการโปรโมตเว็บไซต์อย่างมีประสิทธิภาพ เนื้อหาข้อความของเว็บไซต์จะต้องไม่ซ้ำกันสำหรับเครื่องมือค้นหา เช่น ไม่พบในแหล่งข้อมูลอื่นบนเครือข่าย มิฉะนั้นตำแหน่งของไซต์ในผลการค้นหาจะลดลง

    การสร้างเนื้อหา

    ที่มาของเนื้อหาที่ไม่ซ้ำใครแบ่งออกเป็น 3 ประเภท คือ

    • การเขียนคำโฆษณา - การเขียนบทความอิสระโดยพนักงานขององค์กรที่ได้รับการส่งเสริมหรือสั่งข้อความจากนักเขียนคำโฆษณา ข้อความจะต้องมีคำหลักที่เลือกไว้สำหรับการเพิ่มประสิทธิภาพกลไกค้นหาของเว็บไซต์
    • การเขียนใหม่ - เขียนบทความต้นฉบับใหม่โดยยังคงความหมายและโครงสร้างของบทความไว้
    • สแกน - สแกนสื่อออฟไลน์ (ไม่อนุญาตให้โปรโมตเว็บไซต์มืออาชีพเนื่องจากละเมิดลิขสิทธิ์ของผู้สร้าง)

    การตรวจสอบเอกลักษณ์

    ก่อนที่จะเพิ่มข้อความใหม่ลงในไซต์ จะต้องตรวจสอบความเป็นเอกลักษณ์ก่อน มีการพัฒนาวิธีการซอฟต์แวร์จำนวนหนึ่งเพื่อจุดประสงค์นี้ แบ่งออกเป็น 2 กลุ่ม: บริการออนไลน์และยูทิลิตี้ที่ติดตั้งบนคอมพิวเตอร์

    บริการออนไลน์

    กลุ่มนี้ประกอบด้วยแหล่งข้อมูลต่างๆ เช่น copyscape, miratools, การต่อต้านการลอกเลียนแบบ ฯลฯ

    • คัดลอกสเคป โปรเจ็กต์นี้สร้างโดย Indigo Stream และทำงานบนหลักการของเครื่องมือค้นหา ช่วยให้คุณตรวจสอบข้อความที่โพสต์บนเว็บไซต์ (ต้องป้อน URL ในช่องค้นหา) การตรวจสอบหน้าเว็บเป็นระยะเพื่อตรวจจับการลอกเลียนแบบ การดำเนินการตรวจสอบเป็นชุด (สูงสุด 10,000 หน้าพร้อมกัน) และการวิเคราะห์เนื้อหาออฟไลน์มีให้บริการในรูปแบบบริการชำระเงิน
    • มิราทูลส์ บริการภายในประเทศจากการแลกเปลี่ยนบทความ Miralinks เวอร์ชันฟรีให้คุณตรวจสอบได้ไม่เกิน 10 ข้อความต่อวัน สูงสุด 3,000 ตัวอักษร หลังจากการวิเคราะห์ ส่วนที่ไม่ซ้ำของบทความจะถูกเน้นด้วยสีแดง เมื่อคุณวางเมาส์เหนือส่วนเหล่านั้น หน้าต่างจะปรากฏขึ้นพร้อมกับลิงก์ที่พบวลีที่คล้ายกัน โมดูลแบบชำระเงินประกอบด้วยการตรวจสอบ URL โหมดแบตช์ ตัวกำหนดเวลา และการส่งผลลัพธ์ทางอีเมล การวิเคราะห์ข้อความใช้เวลาไม่เกิน 10 นาที
    • ต่อต้านการลอกเลียนแบบ สำหรับบทความที่มีขนาดสูงสุด 5,000 อักขระ จะใช้การสแกนอย่างรวดเร็ว สำหรับเอกสารขนาดใหญ่สูงสุด 20 MB ในรูปแบบ DOC, TXT, HTML, RTF, PDF - การสแกนโดยละเอียด (มีให้สำหรับผู้ใช้ที่ลงทะเบียน)

    ติดตั้งบนคอมพิวเตอร์

    • ค้นหาเนื้อหาคู่ (DC Finder) ผลิตภัณฑ์ของการแลกเปลี่ยนการเขียนคำโฆษณา TextBroker สามารถดาวน์โหลดข้อความสำหรับการยืนยันได้จากไฟล์ txt เพิ่มจากคลิปบอร์ด หรือระบุเป็นลิงก์ หลังจากค้นหา (ใช้เวลา 3-10 นาที) ยูทิลิตีจะรายงานว่าข้อความไม่ซ้ำกัน หรือแสดงรายการลิงก์ (สูงสุด 50) ที่เกิดรายการซ้ำ โปรแกรมทำงานจากไฟล์ exe และทำงานโดยอัตโนมัติ (โดยไม่ต้องตั้งค่า พารามิเตอร์การปรับแต่งแบบสอบถาม ฯลฯ )
    • แอดเวโก ปลาเกียตัส ผลิตภัณฑ์แลกเปลี่ยนข้อความ Advego แสดงเอกลักษณ์ของข้อความ (สูงสุด 10,000 ตัวอักษร) แหล่งที่มาและเปอร์เซ็นต์ของการจับคู่ ฯลฯ ยูทิลิตี้นี้ได้รับการพัฒนาโดยการแลกเปลี่ยนเนื้อหา Etxt ช่วยให้คุณค้นหารายการที่ตรงกันในสำเนาที่เครื่องมือค้นหาบันทึกไว้ในโหมดแบตช์ กำหนดเปอร์เซ็นต์ของความเป็นเอกลักษณ์ แก้ไขส่วนที่ซ้ำกัน กำหนดค่าจำนวนตัวอย่าง คำในแผ่นมุงหลังคา และพารามิเตอร์การค้นหาอื่นๆ และรักษาประวัติการตรวจสอบ

    ความเป็นเอกลักษณ์ของข้อความมาจาก 95% เว็บมาสเตอร์ทุกคนกำหนดข้อกำหนดนี้สำหรับนักเขียนคำโฆษณา ในช่วงสองปีที่ผ่านมา เนื้อหาที่ไม่ซ้ำใครเป็นหัวข้อที่มีการพูดคุยกันมากที่สุดในชุมชน SEO

    การถูกตัวกรองดักจับ ถูกแบน ลดปริมาณการเข้าชม – ความโชคร้ายใดๆ ที่เกิดขึ้นกับไซต์นั้นถือว่าผู้ดูแลเว็บเป็นผลมาจากการใช้เนื้อหาที่ไม่ซ้ำใคร นี่เป็นเรื่องจริงเหรอ? มาดูกันว่าเว็บมาสเตอร์กลัวอะไรและคุ้มไหม?

    ความเป็นเอกลักษณ์ของข้อความคืออะไรและจะตรวจสอบได้อย่างไร

    เมื่อผู้คนพูดถึงความเป็นเอกลักษณ์ของเนื้อหาของเว็บไซต์ พวกเขามักจะหมายถึงข้อความ เพื่อทำความเข้าใจว่าความเป็นเอกลักษณ์คืออะไรและมีวิธีการตรวจสอบอย่างไร เรามาทำความรู้จักกับคำว่า กรวด กันดีกว่า

    กรวดคือส่วนของข้อความลำดับของคำ (ไม่ใช่ประโยค) ที่โปรแกรมใช้ตรวจสอบความเป็นเอกลักษณ์

    ข้อความเฉพาะคือชุดงูสวัดที่ไม่พบในข้อความของเอกสารอื่นบนเครือข่าย เพื่อการตรวจสอบที่มีประสิทธิภาพจะใช้งูสวัด 5 คำ

    การตรวจสอบเกิดขึ้นได้อย่างไร?

    ในขั้นแรกโปรแกรมจะแบ่งข้อความออกเป็นงูสวัดและตรวจสอบแต่ละรายการว่าตรงกันในเครือข่ายหรือไม่

    แน่นอนว่าเธอพบรายการที่ตรงกันหลายรายการเนื่องจากมีเอกสารนับล้านบนอินเทอร์เน็ต ในข้อความนี้ มีคนใช้งูสวัดไปแล้ว 75% แต่นี่ไม่ได้หมายความว่าข้อความนั้นเป็นการลอกเลียนแบบ

    ในขั้นตอนที่สอง โปรแกรมจะเปรียบเทียบกลุ่มงูสวัดของข้อความที่ถูกตรวจสอบกับงูสวัดของข้อความในเอกสารบนเครือข่าย หากข้อความมีงูสวัดที่เหมือนกันอย่างน้อย 10 ตัว ก็ถือว่าน่าสงสัย

    จากนั้นข้อความที่ต้องสงสัยจะได้รับการตรวจสอบอย่างละเอียด - เปรียบเทียบประโยคเปรียบเทียบลำดับของคำในข้อความค้นหาคำพ้องความหมาย

    ส่วนที่ยืมมาทั้งหมดของข้อความจะถูกแยกออกเป็นกลุ่มแยกต่างหาก โปรแกรมคำนวณเปอร์เซ็นต์ของข้อความทั้งหมด ลบออกจาก 100% แล้วแสดงผลลัพธ์

    เว็บไซต์มีความเสี่ยงอะไรบ้างเมื่อใช้เนื้อหาที่ไม่ซ้ำใคร

    เนื้อหาที่ไม่ซ้ำใครบนเว็บไซต์มีเปอร์เซ็นต์สูงทำให้เกิดผลที่ตามมาร้ายแรง

    เครื่องมือค้นหากำหนดตัวกรองและบทลงโทษบนเว็บไซต์ สำหรับการคัดลอก-วางหรือเนื้อหาที่ไม่ซ้ำกันในทรัพยากรที่มีเปอร์เซ็นต์สูง คุณสามารถรับตัวกรองต่อไปนี้:

    • AGS จากยานเดกซ์ เฉพาะหน้าหลักเท่านั้นที่จะยังคงอยู่ในผลลัพธ์ โดยพื้นฐานแล้ว ด้วยตัวกรองนี้ PS จะลงโทษเฉพาะไซต์ที่มีการคัดลอกและวางหรือคำพ้องความหมายที่โจ่งแจ้งเท่านั้น
    • กรอง "คุณเป็นคนสุดท้าย" PS ใช้กับเพจใดเพจหนึ่งซึ่งมีเปอร์เซ็นต์ความเป็นเอกลักษณ์ต่ำและลดลงในผลการค้นหา

    บ่อยครั้งที่หน้าเว็บที่มีการคัดลอกและวางบนแหล่งข้อมูลที่มีมายาวนานไม่เพียงแต่สร้างดัชนีได้ง่ายและปรากฏในผลการค้นหาเท่านั้น แต่ยังปรากฏในด้านบนอีกด้วย แต่สำหรับไซต์ใหม่ เนื้อหาที่มีความเป็นเอกลักษณ์ต่ำกว่า 80% อยู่ในอันดับต่ำ เป็นไปไม่ได้ที่จะเลื่อนระดับเพจที่มีข้อความที่ไม่ซ้ำกันไปที่ด้านบน ดังนั้นผู้ดูแลเว็บของเว็บไซต์ใหม่จึงพิถีพิถันในเรื่องการเลือกเนื้อหา

    เว็บมาสเตอร์ของเว็บไซต์ใหม่ควรระวังอะไรอีก?

    เครื่องมือค้นหาสามารถเพิกเฉยต่อเนื้อหาที่ไม่ซ้ำกันของเว็บไซต์ และไม่เพิ่มหน้าในผลการค้นหา หากคุณไม่มีเว็บไซต์และกำลังวางแผนที่จะสร้างเว็บไซต์ ฉันขอแนะนำให้ไปที่ sitemania.com.ua คุณสามารถสั่งซื้อเว็บไซต์ที่มีความซับซ้อนได้

    มันเกิดขึ้นเช่นนี้ หุ่นยนต์มาที่ไซต์ของคุณเป็นครั้งแรกเพื่อทำความคุ้นเคยกับเนื้อหา เขาตรวจสอบหลายหน้า พบว่าข้อความในนั้นไม่ซ้ำกัน สรุปว่าทั้งไซต์เป็นแบบนั้น - เขาแค่จากไป

    ดังนั้น จนกว่าโรบอตจะจัดทำดัชนีไซต์ ให้เพิ่มเฉพาะเนื้อหาที่ไม่ซ้ำเท่านั้น

    ความสำคัญของเนื้อหาที่ไม่ซ้ำใครสำหรับไซต์

    เครื่องมือค้นหาเริ่มให้ความสำคัญกับความเป็นเอกลักษณ์ของเนื้อหามากขึ้น เมื่อห้าปีที่แล้ว เครื่องมือเพิ่มประสิทธิภาพสามารถใช้ลิงก์เพื่อโปรโมตเพจได้แม้ว่าจะไม่มีเนื้อหาที่เป็นข้อความก็ตาม ปัจจุบัน ข้อความที่ได้รับการปรับปรุงเป็นเครื่องมือที่สำคัญที่สุดในการโปรโมต

    มันคุ้มค่าที่จะบรรลุเอกลักษณ์ของข้อความสูงสุดหรือไม่? มันมีผลกระทบอย่างมีนัยสำคัญต่อการส่งเสริมการขายหรือไม่?

    ข้อความที่ไม่ซ้ำ:

    • ไม่นำหน้าเข้าใกล้ด้านบนของผลการค้นหา (ในกรณีนี้ ข้อความจะต้องได้รับการปรับให้เหมาะสม)
    • ไม่ทำให้การทำงานของการส่งเสริมการขายภายนอกง่ายขึ้น
    • ไม่ได้ปรับปรุงปัจจัยด้านพฤติกรรม ผู้คนไม่สามารถแยกแยะการคัดลอกและวางจากบทความต้นฉบับด้วยตาเปล่าได้

    เนื้อหาที่ไม่ซ้ำใครบนเว็บไซต์คือความไว้วางใจของเครื่องมือค้นหา ความมั่นใจว่าพวกเขาจะจัดทำดัชนีทุกหน้าของเว็บไซต์ และจะไม่ใช้ตัวกรอง AGS และ "คุณคือคนสุดท้าย"

    เนื้อหาที่ไม่ซ้ำใครบนไซต์หมายความว่ามีความเป็นไปได้สูงที่โครงการจะตายโดยไม่ต้องเกิดด้วยซ้ำ

    บทความนี้มุ่งเน้นไปที่ปัจจัยที่ส่งผลต่อการจัดอันดับเครื่องมือค้นหาของเว็บไซต์ เช่น Yahoo!, MSN, Google และ AskJeeves ไม่มีใครรู้ปัจจัยเหล่านี้อย่างถี่ถ้วน ยิ่งน้อยกว่าระดับอิทธิพลของปัจจัยแต่ละอย่างมาก อย่างไรก็ตาม ผู้เขียนบทความได้ตัดสินใจให้คะแนน (ระดับความสำคัญ) ให้กับแต่ละปัจจัย
    – ความสำคัญเป็นพิเศษ (5 คะแนน)
    ปัจจัยเหล่านี้มีอิทธิพลหลักต่อตำแหน่งที่ไซต์ครอบครองในผลการค้นหา
    – มีความสำคัญสูง (4 คะแนน)
    ปัจจัยเหล่านี้มีผลกระทบร้ายแรงต่อผลการค้นหาและผลการค้นหาในเคียว
    – ความสำคัญปานกลาง (3 คะแนน)
    ปัจจัยเหล่านี้ไม่ได้มีอิทธิพลอย่างมีนัยสำคัญเท่ากับสองปัจจัยแรก แต่คุณไม่ควรลืมสิ่งเหล่านี้
    – ความสำคัญรอง (2 คะแนน)
    ปัจจัยเหล่านี้ควรค่าแก่การพิจารณาในสาขาที่มีการแข่งขันสูง
    – ความสำคัญไม่มีนัยสำคัญ (1 คะแนน)
    ปัจจัยเหล่านี้มีผลกระทบต่อผลการค้นหาน้อยที่สุด
    10 ปัจจัยที่สำคัญที่สุด
    1. หัวข้อ – 4.57
    2. ข้อความลิงก์ – 4.46
    3. การใช้คีย์เวิร์ดในข้อความของเอกสาร – ​​4.38
    4. ประสิทธิภาพเอกสาร – 4.3
    5. ลิงก์ภายใน – 4.15
    6. การปฏิบัติตามธีมของทั้งไซต์ – 4.00
    7. ลิงก์ภายนอก – 3.92
    8. ความนิยมของลิงก์ในแวดวงเฉพาะเรื่อง – 3.77
    9. ความนิยมของลิงก์ทั่วโลก – 3.69
    10. สแปมคำหลัก -3.69

    ปัจจัยด้านเอกสารภายใน

    1. หัวข้อ (4.57) – แท็กนี้แสดงที่ด้านบนของเบราว์เซอร์และมีผลกระทบมากที่สุดต่อการจัดอันดับไซต์
    2. การใช้คำหลัก (4.3 - แน่นอนว่าต้องใช้คำหลักในลักษณะใดลักษณะหนึ่งในข้อความของเอกสาร
    3. ลิงค์เว็บไซต์ภายใน (4.15) – คุณสมบัติที่สำคัญคือลิงค์เว็บไซต์ภายใน ความสอดคล้องกันของเอกสารและจำนวนหน้าภายในที่ลิงก์บ่งบอกถึงความสำคัญของเอกสาร
    4. ความเป็นเอกลักษณ์ของเนื้อหา (3.3 - เนื้อหาในแต่ละหน้าไม่ควรซ้ำกัน หากเครื่องมือค้นหาพบหน้าที่มีเนื้อหาเดียวกัน แต่เป็นรุ่นก่อนหน้า อันดับของหน้าของคุณอาจลดลงอย่างมาก
    5. ข้อกำหนดที่เกี่ยวข้อง (3.31) – โปรแกรมค้นหาติดตามหัวข้อของเว็บไซต์อย่างใกล้ชิด เหล่านั้น. ข้อความของไซต์ควรเกี่ยวข้องกัน (อยู่ในหัวข้อเดียวกัน) และคำศัพท์ควรเชื่อมโยงกันอย่างใกล้ชิด
    6. ลิงก์ภายนอก (3.0 – ลิงก์จากเว็บไซต์และหน้าอื่นๆ มีผลกระทบอย่างมากต่อการจัดอันดับของเครื่องมือค้นหา แต่อาจมีทั้งผลกระทบเชิงบวกและเชิงลบได้ สิ่งสำคัญมากคือลิงก์นั้นมาจากไซต์ที่มีเนื้อหาเฉพาะเรื่อง
    7. อายุของเอกสาร (2.77) – เอกสาร “เก่า” จึงมีความน่าเชื่อถือมากกว่า เครื่องมือค้นหาชอบไซต์ที่พิสูจน์ตัวเองมาเป็นเวลานาน ดังนั้นจึงเป็นเรื่องยากสำหรับไซต์ใหม่ที่จะแข่งขันกับพวกเขาในช่วงแรกของการดำรงอยู่
    8. การอ้างอิงแหล่งที่มา (2.77) – การอ้างอิงในแง่ของเชิงอรรถและการอ้างอิงในหนังสือและนิตยสารถึงแหล่งข้อมูล (คำพูด) อาจส่งผลเชิงบวกเมื่อค้นหาข้อมูลทางวิทยาศาสตร์หรือทางการศึกษา
    9. สัณฐานวิทยาของเอกสาร (2.39) – เสิร์ชเอ็นจิ้นบางตัวคำนึงถึงสัณฐานวิทยาของคำด้วย เหล่านั้น. หากใช้คำในรูปแบบทางสัณฐานวิทยาที่แตกต่างกัน คำนั้นจะเพิ่มความเกี่ยวข้องของเอกสารได้ แม้ว่าจะเป็นที่น่าสังเกตว่ายังมีเครื่องมือค้นหาไม่มากนักที่คำนึงถึงสัณฐานวิทยา
    10. แท็กคำอธิบาย Meta (2.39) – แท็กคำอธิบายกำลังสูญเสียความสำคัญมากขึ้นเรื่อยๆ อย่างไรก็ตามนี่ไม่ได้หมายความว่าถึงเวลาที่ต้องลืมเขาแล้ว เครื่องมือค้นหาจำนวนมากยังคงให้ความสนใจเป็นอย่างมาก ใช่ ในเครื่องมือค้นหาบางรายการ เมตาแท็กนี้จะปรากฏในผลการค้นหา ดังนั้นควรให้ความสำคัญกับแท็กนี้และอย่าลืมใช้คำหลักในนั้น
    11. บันทึกของผู้เขียน (2.3 – ความสำคัญของหน้าสามารถเพิ่มได้ด้วยบันทึกของผู้เขียน หากมีอยู่ เครื่องมือค้นหาจะเข้าใจว่านี่เป็นเอกสารของผู้เขียน ซึ่งความหมายอาจมีความสำคัญมาก
    12. โครงสร้างเอกสาร (2.31) – สำหรับเครื่องมือค้นหา การจัดระเบียบโครงสร้างเอกสารและลำดับของวลีมีความสำคัญ นี่เป็นสิ่งสำคัญอย่างยิ่งสำหรับหน้าที่มีเนื้อหาจำนวนมาก
    13. เวลาลิงก์ (2.31) – หากลิงก์เดิมคงอยู่เป็นเวลานาน สิ่งนี้จะเพิ่มความสำคัญของหน้าที่ลิงก์ไป ในขณะเดียวกัน การลบลิงก์ใหม่อย่างต่อเนื่องสามารถลดอันดับของเพจได้
    14. โซนโดเมน (2.31) – โซนโดเมน .com, .biz, .net และอื่นๆ พร้อมให้บริการสำหรับทุกคน แต่โซน .gov, .mil หรือ .edu นั้นไม่ใช่เรื่องง่ายที่จะรับ ดังนั้นพวกเขาจึงได้รับความสำคัญเป็นอันดับแรก กล่าวคือ พวกเขาสมควรได้รับความสนใจมากขึ้น
    15. ข้อความในชื่อ alt และ img (2.23) ตัวชี้วัดเหล่านี้ยังคงมีผลกระทบต่อความเกี่ยวข้องของหน้า แม้ว่าจะเป็นที่น่าสังเกตว่าการสะกดที่ถูกต้องนั้นมีความสำคัญ โดยหลักๆ แล้วใช้สำหรับการค้นหารูปภาพ
    16. Headings (2.23) – การใช้แท็ก H1-H6 เป็นสิ่งสำคัญ การจัดการแท็กเหล่านี้สามารถเพิ่มความเกี่ยวข้องของแต่ละคำในหน้าเว็บได้ แท็กเหล่านี้ช่วยให้คุณสามารถเน้นคำและวลีที่สำคัญที่สุด (คีย์)
    17. การอัปเดตเนื้อหา (2.23) – เครื่องมือค้นหาติดตามการเปลี่ยนแปลงและอัปเดตเนื้อหา หากครั้งหนึ่งเพจถูกสร้างขึ้นและไม่มีการเปลี่ยนแปลงตั้งแต่นั้นมา (ไม่มีข้อความ ไม่มีรูปภาพ ไม่มีแบบอักษร) ความสำคัญของหน้าจะค่อยๆ ลดลง
    18. ภาษาเอกสาร (2.15) – โดยปกติแล้ว สำหรับเสิร์ชเอ็นจิ้นภาษาจีน สิ่งสำคัญคือหน้านั้นเป็นภาษาจีน ดังนั้นจึงแนะนำให้กำหนดภาษาของเอกสารอย่างชัดเจน
    19. คำสำคัญใน URL ของเอกสาร (2.15) – การใช้คำสำคัญใน URL ของเอกสารสามารถเพิ่มความเกี่ยวข้องของไซต์ได้อย่างมาก
    20. Meta keywords tag (2.0 – การใช้คีย์เวิร์ดใน meta tag ของคีย์เวิร์ดยังคงมีความสำคัญ แม้ว่าแท็กนี้มีความสำคัญน้อยลงเรื่อยๆ และเครื่องมือค้นหาจำนวนมากก็ไม่ได้ใช้งานจริง
    21. ความลึกของเอกสาร (1.92) - จำนวนคลิกที่คุณสามารถไปยังหน้าใด ๆ ของเว็บไซต์เป็นสิ่งสำคัญสำหรับเครื่องมือค้นหา ยิ่งมีน้อยก็ยิ่งดี โดยทั่วไปแนะนำให้คลิกไม่เกิน 3-4 ครั้ง
    22. H1, ตัวหนา และแท็กอื่นๆ (1.91) – การใช้แท็กหัวเรื่อง, ตัวหนา, ตัวเอียง และแท็กอื่นๆ ในการจัดรูปแบบข้อความมีผลกระทบต่อการจัดอันดับหน้า การเน้นคำหลักด้วยแท็กการจัดรูปแบบที่แตกต่างกันสามารถเพิ่มความเกี่ยวข้องได้
    23. การแสดงตนของเว็บไซต์ในรูปพระจันทร์เสี้ยว (1.92) – หากหน้าเว็บไซต์เคยอยู่ในหน้าแรกของผลการค้นหา สิ่งนี้จะเพิ่มความเกี่ยวข้องของเว็บไซต์ในอนาคต
    24. ยัติภังค์ในชื่อโดเมน (1.92) – ยัติภังค์ 2 ตัวขึ้นไปในชื่อโดเมนทำให้ตำแหน่งของเว็บไซต์แย่ลง
    25. แผนผังเว็บไซต์ (1.92) – การมีแผนผังเว็บไซต์ช่วยปรับปรุงการจัดทำดัชนีเว็บไซต์และการจัดอันดับหน้า
    26. Google Sitemap หรือ Yahoo! ชำระเงิน (1.77) – การปรากฏตัวในโปรแกรมดังกล่าวอาจส่งผลต่อการจัดทำดัชนีไซต์
    27. ข้อความลิงก์ (1.85) – การใช้คำสำคัญในข้อความลิงก์ส่งผลต่อความเกี่ยวข้องของคำเหล่านี้
    28. การปฏิบัติตามมาตรฐาน W3C (1.67) – เครื่องมือค้นหาคำนึงถึงปัจจัยนี้หรือไม่นั้นเป็นที่น่าสงสัย แต่คุณไม่ควรลืมมัน
    29. การเปลี่ยนเส้นทาง (1.66) – การใช้การเปลี่ยนเส้นทางอาจส่งผลเสียต่อตำแหน่งของเว็บไซต์ในเครื่องมือค้นหา
    30. ความยาวเอกสาร (1.55) – น้ำหนักหน้าอาจมีทั้งผลบวกและผลลบ โดยทั่วไปแล้ว เครื่องมือค้นหามักชอบหน้าเว็บที่มีขนาด 100-200Kb
    31. การสะกด (1.34) – การสะกดคำทุกคำในเอกสารสามารถใช้เป็นการวัดคุณภาพของเอกสารนั้นสำหรับเครื่องมือค้นหา
    32. ความสามารถในการอ่านข้อความ (1.25) – ความสามารถในการอ่านข้อความเป็นการวัดโดยพิจารณาจากความถี่ของการใช้คำที่ใช้กันทั่วไปจากคำศัพท์ของเด็กนักเรียนในแต่ละปีการศึกษา รวมถึงคำเฉพาะทางที่หายากในข้อความของเอกสาร มาตรการนี้สามารถนำมาพิจารณาตามคำขอและหากมีข้อมูลเกี่ยวกับผู้ที่กำลังมองหา - หากนักเรียนกำลังมองหาเขาจะไม่สามารถรับมือกับบทความจากวารสารวิชาการได้
    33. ประเภทเอกสาร (1.22) – ประเภทเอกสาร เช่น .pdf, .doc, .txt เป็นต้น อาจนำมาพิจารณาเมื่อจัดอันดับแตกต่างกันไปขึ้นอยู่กับคำขอเฉพาะ

    ปัจจัยทางเทคนิค
    1. ความพร้อมใช้งานของเอกสาร (4.31) – การเข้าไม่ถึงเอกสารอาจเกิดจากข้อผิดพลาด 404 ข้อผิดพลาดของเซิร์ฟเวอร์ ความจำเป็นในการติดตั้งปลั๊กอินการดู และปัญหาทางเทคนิคอื่น ๆ ปัญหาดังกล่าวจะไม่ทำให้คุณได้รับเงินปันผล
    2. ตัวระบุเซสชัน (3.62) – ตัวระบุเซสชันใน URL อาจส่งผลต่อการจัดอันดับอย่างคาดเดาไม่ได้ เนื่องจาก การทำซ้ำของเอกสารเดียวกันสามารถจัดทำดัชนีได้หลายสิบหรือหลายร้อยครั้งภายใต้ URL ที่ต่างกัน
    3. การใช้ NOARCHIVE/NOINDEX (3.31) – คำสั่ง noindex และ noarchive ใน META ROBOTS บอกให้โรบ็อตการค้นหาไม่สร้างดัชนีหน้านี้และไม่ต้องบันทึกสำเนา ดังนั้นเนื้อหาของหน้าเหล่านี้จึงไม่ส่งผลกระทบต่อการจัดอันดับของเครื่องมือค้นหา
    4. Dynamic URL (3.23) – พารามิเตอร์ไดนามิกจำนวนมากใน URL มักจะรับประกันว่า URL นี้จะถูกข้ามโดยโรบอตเครื่องมือค้นหา ตัวแทนของเสิร์ชเอ็นจิ้นต่าง ๆ แนะนำมานานแล้วให้ จำกัด ตัวเองไว้ที่พารามิเตอร์ไดนามิกสองตัวหรือดีกว่าใน URL
    5. การใช้เฟรม (3.15) – การใช้เฟรมจะไม่เพิ่มอันดับของเว็บไซต์ เฟรมถือเป็นเทคโนโลยีที่กำลังจะตาย และไซต์ที่สร้างบนเฟรมถือว่าล้าสมัย
    6. Hoster (3.00) – โฮสติ้งที่ไม่น่าเชื่อถืออาจทำให้เกิดปัญหาบางอย่างได้ บ่อยครั้งที่ไซต์ที่ใช้งานไม่ได้อาจทำให้ไซต์ถูกลดระดับในการจัดอันดับ รวมถึงหน้าเว็บบางหน้าไม่ได้รับการจัดทำดัชนี
    7. การปิดบัง IP (2.0) แม้ว่าการปิดบังดังกล่าวจะตรวจพบได้ยาก แต่เครื่องมือค้นหากำลังหาวิธีตรวจจับและปรับไซต์ทันที
    8. ข้อมูลเกี่ยวกับการจดทะเบียนโดเมน (1.69) – ข้อมูลเกี่ยวกับการจดทะเบียนโดเมนสามารถใช้เป็นเครื่องมือค้นหาเป็นแหล่งข้อมูลเกี่ยวกับเจ้าของทรัพยากรได้ ดังนั้นจึงเลือกผู้ส่งอีเมลขยะจากมวลชนทั่วไป
    9. เวลาในการจดทะเบียนโดเมน (1.62) – เวลาที่จดทะเบียนโดเมนอาจบ่งบอกถึงความตั้งใจที่จริงจัง หากจดทะเบียนโดเมนเป็นเวลานาน เครื่องมือค้นหาจะมีทัศนคติที่ดีต่อเว็บไซต์มากกว่า
    10. ความยาว URL (1.46) – ความยาว URL มีความสำคัญ ไม่แนะนำให้ใช้ URL แบบยาว
    11. Robot.txt (1.31) – การมีไฟล์ robot.txt บ่งชี้ว่าหน้าเว็บจะไม่ถูกจัดทำดัชนีโดยเครื่องมือค้นหา

    ปัจจัยมูลค่าลิงก์
    1. ข้อความลิงก์ (4.46) – การใช้วลีสำคัญ คำ และเงื่อนไขในข้อความลิงก์จะเพิ่มความเกี่ยวข้องของหน้าอย่างมาก
    2. ลิงก์ภายนอก (3.92) – ลิงก์จากแหล่งข้อมูลยอดนิยมและเฉพาะเรื่องอาจส่งผลกระทบร้ายแรงต่อการจัดอันดับเว็บไซต์ของคุณ
    3. ความนิยมโดยรวมของเว็บไซต์ (3.85) – ความนิยมของแต่ละหน้า บริการ เอกสารส่งผลต่อความนิยมโดยรวมของทรัพยากรในหน้าค้นหา ในทางกลับกัน องค์ประกอบเว็บไซต์ที่ไม่น่าดึงดูดสามารถลดความนิยมของทรัพยากรได้
    4. ชุมชนเฉพาะเรื่อง (3.77) – การมีอยู่ของไซต์ในชุมชนเฉพาะเรื่องสามารถส่งผลเชิงบวกต่อการจัดอันดับของไซต์ได้
    5. ข้อความอย่างตรงไปตรงมา
    6. ข้อความของลิงก์ไซต์ (3.46) – ข้อความของลิงก์ที่ชี้ไปยังเอกสารสามารถเพิ่มความเกี่ยวข้องของเอกสารเดียวกันเหล่านี้ได้
    7. โครงสร้างลิงก์ (3.31) – ความลึกของไซต์เป็นสิ่งสำคัญสำหรับการประเมินความเกี่ยวข้องของเพจ หน้าที่สามารถเข้าถึงได้ใน 4-5 คลิกมีความเกี่ยวข้องน้อยกว่าหน้าที่สามารถเข้าถึงได้ใน 2 คลิก
    8. ลงชื่อ Rel=Nofollow (3.00) – แท็กนี้ระบุว่าลิงก์ไม่ได้ถูกสร้างขึ้นโดยผู้ดูแลไซต์ และพวกเขาจะไม่รับผิดชอบ
    9. ความหมายของลิงก์
    10. การจัดรูปแบบลิงก์ (1.69) – การใช้แท็กหัวเรื่อง แบบอักษรตัวหนา ฯลฯ ในข้อความลิงก์อาจส่งผลเชิงบวกต่อความเกี่ยวข้องของหน้า
    11. ชื่อเรื่องลิงก์ (1.54) – สาระสำคัญของข้อความลิงก์มีความสำคัญ ลิงก์ “คลิกที่นี่” ไม่ได้ปรับปรุงความเกี่ยวข้องของเพจ

    ปัจจัยลบ
    1. สแปมคำหลัก (3.69) – การใช้คำหลักมากเกินไปอาจส่งผลเสียต่อการจัดอันดับเครื่องมือค้นหาของเว็บไซต์
    2. การปิดบัง (3.54) เป็นหนึ่งในเทคโนโลยีที่มีการลงโทษอย่างรุนแรงที่สุด หากเว็บไซต์ของคุณถูกจับได้ว่าใช้การปิดบัง ไซต์อาจถูกแบนทันที (ลบออกจากรายการจัดทำดัชนีของเครื่องมือค้นหา)
    3. การทำสำเนาเนื้อหา (3.3 – การทำสำเนาเนื้อหา (การโจรกรรม) มีโทษร้ายแรงโดยเครื่องมือค้นหา
    4. ปัญหา Cononic (3.31) - ปัญหาที่พบบ่อย โดยเฉพาะไซต์ขนาดใหญ่ ปัจจัยนี้ตามมาจากปัจจัยของเนื้อหาที่ซ้ำกัน เช่น เมื่อสำหรับที่อยู่ url.com, www.url.com และ www.url.com/index.html เนื้อหาเดียวกันจะปรากฏขึ้น และแต่ละที่อยู่เหล่านี้ได้รับลิงก์จำนวนมาก จากไซต์อื่น ๆ และที่อยู่เหล่านี้ทั้งหมดถูกใช้เมื่อลงทะเบียนในไดเร็กทอรีต่าง ๆ และรายการแหล่งข้อมูลอินเทอร์เน็ตอื่น ๆ อาจส่งผลเสียต่อการจัดอันดับไม่ว่าที่จริงแล้วจะเป็นหน้าเดียวกันก็ตาม
    5. สแปมลิงก์ (3.23) – ลิงก์ทั้งหมดที่ไม่ได้สร้างด้วยตนเอง การใช้วิธีต่างๆ เพื่อเพิ่มดัชนีการอ้างอิงปลอมอาจส่งผลกระทบร้ายแรงต่อตำแหน่งของไซต์ในเครื่องมือค้นหา
    6. ลิงก์จากไซต์ที่ “ไม่ดี” (3.0 – ลิงก์จากไซต์ที่มีเนื้อหาไม่ดีหรือการมีส่วนร่วมในแผนการแลกเปลี่ยนลิงก์สามารถนำไปสู่การลบไซต์ออกจากดัชนีได้
    7. เนื้อหาที่ผิดกฎหมาย (3.00) – เนื้อหาที่ละเมิดกฎหมายท้องถิ่น ภูมิภาค และหลักศีลธรรมและจริยธรรม นี่คือการใช้สื่อลามก สื่อการก่อการร้าย ฯลฯ ไซต์ดังกล่าวจะถูกแยกออกจากดัชนีโดยเครื่องมือค้นหา
    8. รหัสที่ใช้งานไม่ได้ (2.85) – รหัสที่ไม่ถูกต้องและกระจัดกระจายซึ่งสร้างปัญหาในเส้นทางของบอทการค้นหาและจะไม่อนุญาตให้เพจปรากฏที่ด้านบนของผลการค้นหา
    9. การแย่งชิง URL (2.69) – ใช้โค้ดตอบกลับ 302 เพื่อกำหนดตำแหน่งการค้นหาให้กับเพจที่มีอันดับสูง มันมีผลกระทบเชิงลบต่อการจัดอันดับของทั้งไซต์ที่ “ถูกแย่งชิง” และไซต์ที่ “ถูกแย่งชิง”
    10. วิธีการที่ผิดจรรยาบรรณ (2.62) เป็นแนวคิดที่ค่อนข้างคลุมเครือ รวมถึงวิธีการล่อลวงผู้ใช้ให้ทำธุรกรรมที่ผิดกฎหมาย การหลอกลวง และวิธีการอื่นในการรับเงินจากผู้เยี่ยมชมอย่างผิดกฎหมาย
    11. ลิงก์ “เสีย” (1.2 – การมีอยู่ของลิงก์ที่นำไปสู่หน้าที่ไม่มีอยู่จริง (ข้อผิดพลาด 404) ส่งผลเสียต่อตำแหน่งของเว็บไซต์ในเครื่องมือค้นหา
    12. เนื้อหาที่ไม่ปลอดภัย (1.15) – เนื้อหาที่ถือว่าไม่ปลอดภัยสำหรับเด็กและวัยรุ่นอาจส่งผลเสียต่อการจัดอันดับเครื่องมือค้นหาของเว็บไซต์