Работа със Scrapebox - възможности, идеи и как да я използваме ефикасно *

Прегледа 440 | Коментари

Scrapebox с няколко думи е швейцарско ножче, което не само може да се използва за спам на wordpress коментари, но има ужасно много възможности - от bulk research, до scrape на съдържание в интернет.  Статията първоначално я бях замислил като кратка информация и по-скоро с няколко думи за всяка възможна опция, но накрая реших да преминем през всичките и възможности и то практически.

В статията първо ще съберем bulk списък от keywords, след това ще съберем блогове и накрая ще публикуваме и проверим дали коментара е публикуван.

Scrapebox беше изключително популярна около 2010-2013 преди пингвин / панда промените по алгоритъма на гугъл и предимно се използваше за спамене на wordpress блогове. Благодарение на scrapebox всъщност започнах да изкарвам пари online някъде към 2010-та година като предлагах bulk comment posting в няколко форума. Ставаше дума наистина за количество от около 10 000 коментара, 50 000 коментара, над 100 000 коментара и т.н.

Личното ми мнение е, че вмомента публикуването на коментари не е ефективно ( откъм SEO ), но самата програма има куп възможности, които могат да ви улеснят живота ужасно много - сортиране на текстови файлове, търсене на ключови думи, обхождане по DOM на множество сайтове едновременно  и т.н..

 

Ето как изглежда и самата програма ( натискайте на изображенията за да ги видите в пълен размер ) когато се стартира.  Първото нещо, което може да видим е, че е разделена на 4 под раздела, сега ще разгледаме всички поотделно и ще видим как работят и как можем да ги използваме не само за публиквуане на коментари.

1- Работа с Harvester And Keywords

Със сигурност това е нещото, което използвам най-много. Както се разбира и от името, горната лява част се използва за събиране на сайтове от интернет, "research" , както и на ключови думи. На пръв поглед има куп букви и менюта, които е разбираемо да не се разбира за какво служат и какво значат, но ще видите че е изключително лесно да се работи с харвестера.

Най-отгоре в harvester-a имаме един text dropdown, който държи предишни Footprints, които идентифицират дадена платофрма. В повечето случаи няма да се налага да използвате custom footprint, защото бутона "Platforms" ни позволява да таргетираме специфична платформа достатъчно точно ( wordpress, drupal, image galleries, etc, etc )

Keyword scrapper

Време е да съберем ключови думи ( възможно най-много ). За целта ни трябва "Scrape", а след натискането му трябва да виждате това:

 

Отляво се намират ключовите думи, а горе вдясно има информация откъде колко сме извлекли.

Може да импортираме keywords, но ние ще използваме keyword scrapper-a за да си ги набавим сами.

Първоначално писах, качвах снимки с български keywords, но там се сблъсках с обичайния проблем - малко количество и недостатъчно думи, които ще ни трябват когато разглеждаме как се публикуват коментари. Затова реших да използвам english keywords.

Идеята на  keyword скрапера е да започнем с малко  и след това постепенно да увеличаваме количеството думи, като местим новите вляво при списъка ни и пускаме търсенето отново.

 

Получихме това:

За жалост нямам платени проксита, защото много рядко използвам програмата, затова и резултатите не са много. А прокси харвестера, който предоставят - намира наистина проксита и то ужасно много, но са много бавни или пък след 10-15 минути престават да работят.  Затова прокситата са задължителни ако използвате програмата редовно. Преди години 10 проксита за  7 долара на месец ми вършеха чудесна работа. Captcha също ще ви трябва, ако искате да имате по-голям процент успеваемост при коментиране.

Няколко пъти повторих scrape + transfer results to left side и накрая се получи този списък, който за демонстрацията ще ни свърши чудесна работа  - https://pastebin.com/EaWPZgwu

 пс: Ако някой не се е досетил - не правим keyword research - всъщност ще търсим wordpress блогове, които съдържат въпросните думи. Има доста по-адекватни начини да се направи хубав keyword research - тук идеята е колкото повече толкова повече.

Отляво сме прехвърили думите, а това са платформите в които ще се целим.

 

Harvester

След като имаме някакъв списък с keywords е време да съберем голям брой платформи. За целта ще работим с дясната горна част от програмата и предимно "Start Harvesting", който отваря същинският harvester. Тук идва момента да спомена отново така наречените footprints. Scrapebox няма да търси само ключовата дума, например "fast diet for 3 weeks", а ще inject-ва въпросните footprints. За пример:

 

Резултатите от тази сесия са трагични - google ме отряза сравнително бързо, но такива са нещата, когато не се използват проксита.  Затова ще  избера всички други източници без google services, за да може да съберем повече адреси - ще видите, че след това когато ги "чистим" огромна част ще бъдат невалидни.

 

За статията 10 000 + около 20 000 от google  ще ни свършат работа, виждате че и процентите са 0, когато ви трябва сериозно количество е хубаво да оставите скрапбокса да поработи една нощ за да може да се събере стабилен списък. За около 10 000 гарантирани instant публикувани коментара ви трябва непочистен списък от около 350 000 блога :) 

Почистване на списъка

Това е много важна част когато се използва scrapebox - много хора започват да публикуват коментари върху непочистени списъци, което води до ужасно малък процент на успеваемост.  Това, което търсим е коментари, които са публикувани без модерация.

Непочистени адресите са 32 850, първото което трябва да направим е да премахнем повтарящите се адреси, както и да проверим дали сайта съществува, защото това че го има в индекса на някой search engine, не означава че вмомента има блог там. Хубавото е, че дясната половина на scrapebox ви дава всичко нужно за да обработвате списъци.  

Списъка ни намаля драстично само след като премахнахме дубликатите - имаме списък от 16 481 блога.

Email Harvester

Мислех да драсна повече за него, но тъй като е част от harvester-a ще демонстрирам много накратко как работи.

Отдясно имаме Grab/Check , където се намира и email harvester-a. Работи на същият принцип, а списъка е същият, който ще използваме и за публикуване на коментари.  Спрях го рано, защото имейл адреси не ми трябват, но инструмента работи чудесно. Ако ще събирате имейл адреси, хубаво е списъка да е по-хубав и по-добре почистен от това, което направих аз за демонстрацията тук.  Хубавото е, че разполагаме и с deep-level, тоест ако се налага може да използваме само един сайт от който да вземем имейл адреси от различни вътрешни страници. Истински сценарий, който съм правил за клиент е:

  •  импортиране на няколко стотин директории / бизнес каталози
  •  използване на харвестера за да съберем всички възможни страници, които имат
  • събиране на имейл адресите от тях
  • сортиране, почистване на мейлите

Публикуване на коментари 

 

След като вече имаме някакъв тестов списък, време е да видим как всъщност работи и публикуването на коментари.

Информацията се зарежда долу вдясно като е повече от препоръчително да се използват имена/ имейл адреси/ коментари в spin format, същото важни и за сайтовете, които ще публикувате. Заредил съм някакви dummy имена / сайт/ коментар /мейл за да довърша статията.

Същинският comment poster представлява това:

Имаме информация през цялото време какво се случва, както брой публикувани / неуспешни коментари. Разбира се моите настройки са ужасни и не са оптимизирани за публикуване вмомента. Няма да имате проблеми да имате активни threads : 100   с decent компютър, а 10 проксита и една captcha service са задължителни ако използвате програмата често.

Спрях comment poster-a само на 2500, а успешните са само 169.  Сега е момента да пуснем и link checker-a, който ще обходи въпросните 169 и ще видим къде коментара е наистина публикуван.

Коментара е публикуван само на 7 места ( списъка тук ). Както казах по-нагоре - когато търсите количество трябва да си играете с огромен списък.

 

Съвети

Ако сте решили да предлагате някаква услуга свързана с публикуване на подобни коментари или пък ви трябва на вас - не използвайте списъци от интернет. Направете си сами списъка, в началото съм обърнал доста внимание на това - работете с колкото се може по-голям списък от keywords, след това изчаквайте harvester-a да събере всички възможни адреси преди да започнете да чистите.  Почистен списък от около 300 000 блога е чудесен старт и с добри настройки / проскита / капча ще имате около 10 000 моментално публикувани коментара. Оттам вече можете да се заигравате доста -  когато работите с различни списъци от различни keywords - винаги запазвайте instant публикуваните адреси и ги добавяйте в някакъв master.txt, който съдържа всички успешно публикувани. Така можете да използвате само този списък за публикуване на коментари и ще знаете, че ще са успешни. Хубаво е всеки месец да си направите по няколко нови списъка от около 350 000 блога и да ги почиствате, винаги можете да използвате подхода, който използвах Аз - публикуване на тестов коментар, за да почистите максимално списъка.

 

 

 

 

Коментари

За Връзка
Можете да ми пишете на remindbg @ gmail.com