Copyscape — поиск плагиата в сети

Сервис Copyscape помогает бороться за авторские права в интернете, выявляя плагиат. С помощью Copyscape можно найти сайты, которые копируют ваш контент без спроса, или сайты, которые вас цитируют.
Вводите адрес сайта и получаете список сайтов которые дублируют ваш контент. После перехода по ссылкам в результате поиска дублирующий контент подсвечивается.

При проверке этого блога обнаружил, что сервис расценивает копирайт разработчика дизайн-темплейта блога как плагиат. 🙂

Бесплатная версия ограничена десятью результатами поиска. В расширенной версии доступно больше возможностей по обнаружению дубликатов контента и борьбе с плагиатом.

Удачи в борьбе с плагиатом!

Детектор искусственной накачки

В бизнесе по продаже б\у доменных имен используется такой вид мошенничества как исскуственная накачка PR. Если вы решили купить домен, и одним из критериев при выборе домена был PageRank, то не мешало бы проверить перед покупкой, высокий PageRank домена это следствие популярности домена или он был искуственно накачан.

Для того, чтобы искусственно накачать PageRank, на продаваемом домене используют 301 или 302 редирект ведущий на домен с высоким PageRank. В результате таких манипуляций продаваемый домен склеивается с доменом, на который стоит редирект и получает его PR.

C помощью Fake PageRank Detection сервиса можно проверить PageRank домена, не был ли он искуственно накачан.
Вводите имя домена (например www.domain-A.com), нажимаете сабмит. Если URL в результате проверки тот же, значит все ОК. Но если в результате проверки видите другой домен (например, www.domain-B.com), значит PageRank искуственно накачан.

Search Engine Index Count tool — Групповая проверка индексации сайтов в 7 поисковых системах

Search Engine Index Count tool — Анализ количества проиндексированных страниц в 7-ми поисковых системах Google (AOL, HotBot), Yahoo! (Fast, AltaVista), MSN. Можно проверять до 5 доменов.

Показывает количество проиндексированных страниц у домена поисковыми системами, можно сравнить индексацию своих сайтов с сайтами конкурентов.

Анализ количества проиндексированных страниц в 7-ми поисковых системах

С помощью History report можно отслеживать, как индексация протекала со временем. Если раньше вы уже запускали анализ индексации для домена, в отчете будут доступны значения полученные в предыдущих запусках.

С помощью History report можно отслеживать, как индексация протекала со временем

Тренд по домену. Можно просматривать график числа страниц в индексе по каждой поисковой системе отдельно.

Антивирусы в Linux Ubuntu

Нужно признать, что в Linux практически нет антивирусов. Вот уже лет 5 работаю с Unix системами, если не больше, но Linux-вирусов не встречал. В основном, это только вирусы из Windows, которые в Linux ничего особо и не сделают…

Но, если необходимо выловить вирусы (ведь у Вас же могут быть разделы, к которым имеют доступ компьютеры с ОС Виндовс), то применяйте антивирусы:
ClamAV — классический антивирус для Linux.
chkrootkit — антивирус, который ловит зловредых rootkit-ов.
rkhunter — охотник на rootkit, backdoor, sniffer, exploit.
avg — не плохой антивирус под Linux.

Необходимо отметить, что чем больше антивирусов Вы установите, тем медленнее компьютер будет работать. Поэтому, стоит ли это делать, необходимо смотреть по обстоятельствам.

Однозначно, Linux — это не Windows. Вирусов не нахватывает…

P.S. Полезными могут быть так же средства показывающие подключения. Например:
Etherape — показывает кто и по какому протоколу подключается.
iptraf — более простой вариант.

Предметная визуализация

Работа с архивами средствами PHP

Как архивировать в формате zip PHP написано в статье: http://blog.webmasterschool.ru/php/48/

На http://www.phpclasses.org можно скачать класс Create ZIP File, предназначенный для создания zip-файлов с иерархией папок. Пример использования:

// Подключаем класс для работы с zip-архивами
include_once(«createZip.inc.php»);
$createZip = new createZip;

// Добавляем директорию
$createZip -> addDirectory(«dir/»);

// Добавляем файл
$fileContents = file_get_contents(«img.jpg»);
$createZip -> addFile($fileContents, «dir/img.jpg»);

// Создаем архив
$fileName = «archive.zip»;
$fd = fopen ($fileName, «wb»);
$out = fwrite ($fd, $createZip -> getZippedfile());
fclose ($fd);

// Отдаем архив браузеру
$createZip -> forceDownload($fileName);
@unlink($fileName);
?>

Функция для извлечения файлов из архива:

/**
* Распаковывает zip-архив в указанный каталог.
* $dir — полный путь к каталогу.
* $file — полный путь к zip-архиву.
* $log — флаг вывода диагностики.
*/
function unpackZip($dir, $file, $log=0) {
if ($log) echo «Start unpack [$file] into [$dir] directory…
«;

if ($zip = zip_open($file)) {
if ($zip) {
// создать каталог, если он не существует
if (! file_exists($dir)) mkdir($dir);

while ($zip_entry = zip_read($zip)) {
$name = zip_entry_name($zip_entry);
if ($log) echo » unpack : $name
«;

// последний символ имени
$last = substr($name, strlen($name)-1);

// если это каталог
if ($last == «/» || $last == «\\») {
$subdir = $dir.»/».$name;
// создать каталог, если он не существует
if (! file_exists($subdir)) mkdir ($subdir);
} else {
// распаковать файл
if (zip_entry_open($zip, $zip_entry, «r»)) {
$buf = zip_entry_read($zip_entry, zip_entry_filesize($zip_entry));
$fp = fopen($dir.»/».zip_entry_name($zip_entry), «w»);
fwrite($fp, $buf);
zip_entry_close($zip_entry);
} else {
return false;
}
}
}
zip_close($zip);
}
} else {
return false;
}

return true;
}
?>

Разработка и создание сайтов, интернет-магазинов, веб-приложений, порталов, лэндингов, мобильных приложений (Киев)

Советы по раскрутке в Яндекс

« — Задавайте уникальные заголовки документов, вкратце описывающие сайт и текущий документ (но не более 20-25 слов). Слова в заголовках имеют больший вес, чем остальные.

— Давайте каждому документу описание в тэге description

— Не забывайте о ключевых словах, по возможности уникальных для каждой страницы

— Делайте подписи к картинкам в тэге alt

— Чем длиннее документ, тем менее заметны в нем будут слова, заданные в запросе и, следовательно, ваша страница будет ниже в результатах поиска при прочих равных. Старайтесь разбивать длинные документы на более короткие.

— Яндекс работает только с текстами и не умеет распознавать графические изображения. Поэтому, если название нарисовано, стоит продублировать его в текстовом виде.

— Соблюдайте правила оформления документов не набирайте слова в р а з р я д к у, если хотите, чтобы документ по ним находился (используйте для этого style sheet) не набирайте слова большими буквами без необходимости, если это не аббревиатура точки и запятые прижимайте к слову, за которым они стоят, после них ставьте пробел. Иначе Яндекс не распознает их как отдельные слова

— И, наконец, подумайте, по каким словам и фразам вы сами искали бы сайт вашей тематики. Если ваш сайт посвящен разведению кур и вы не находите его по слову «куроводство» — значит, это слово мало используется в документах вашего сайта. Те, кто интересуется именно «куроводством», могут не найти ваш сайт. Давайте документам заголовки и редактируйте их текст соответственно тем запросам, по которым вы бы сами стали искать свой сайт.

— Как работают ключевые слова (Meta keywords)?
Если слово из основного текста документа не расценено как спам и есть в «keywords» среди первых 50, то вес этого слова в запросе повышается, то есть документ получает более высокую релевантность.. Если слово есть в «keywords», но отсутствует в основном (видимом пользователю) тексте документа, то по умолчанию документ по этому слову не найдется.
Это означает, что, с точки зрения Яндекса количество повторов слова в «keywords» не может «поднять» документ в результатах поиска — на ранжирование влияет совпадение фактов наличия этого слова и в ключевых словах, и в основном тексте документа (ну и, естественно, в запросе пользователя).

—Поэтому повторов в «keywords» (как и в других местах) делать не рекомендуется. Во-первых, как сказано выше, это не помогает — вместо повторов лучше дать другие слова или варианты (например, перевод на другие языки, синонимы, транслитерацию и т.п.) — из тех, что есть в «видимом» тексте. Во-вторых, может и помешать — Яндекс может посчитать слишком частотные слова спамом.»

Резюме:

1 Определись со своим проектом, долгосрочный он или только на день
2 Выкладывай на сайт только качественный продукт, оптимизированный, заполненный и желательно без грубых ошибок.
3 Соблюдай правила Яндекса и ты будешь на вершине
4 Создай что-то интересное чтобы люди размещали ссылки на твой сайт
5 Дай людям то чего они хотят.

Источник информации: http://www.woweb.ru/publ/36-1-0-448

Оптимизация динамических страниц в поисковых системах

Много раз мы использовали различные методы для того, чтоб маскировать динамический код под обычные html-страницы. Но, до последнего времени, эта информация была достаточно разрозненной, не систематизированной. Но, вот нашёл статью на http://www.woweb.ru/publ/36-1-0-336 и решил отметить в блоге — чтоб и самому не забыть…

Вот мы вплотную подошли к теме статьи, нам придется менять URL всех страниц и приводить его в нормальный вид.

Я знаю 4 способа, как это сделать.

1. Самый ламерский способ :). Мы пишем

ErrorDocument 404 script.php

в файле .htaccess, где script.php — файл, в котором обрабатывается запрошенный URL и выводится нужная страница. Способ основан на том, что вы можете выдумать любой URL по которому Вы потом однозначно можете отобразить нужную страницу, обработав его (URL) скриптом, который будет вызван, если страница, на которую Вы ссылаетесь не существует.
2. В httpd.conf или .htaccess мы пишем строку

Options Multiviews

Теперь сервер при запросе URL вида <адрес директории>/one/two/three будет искать файл one с любым расширением (например one.php), который Вы заблаговременно помещаете в <адрес директории>. А уже в one.php разбираем переменную окружения $REQUEST_URI и показываем нужную страницу.
3. В httpd.conf или .htaccess мы пишем

ForceType application/x-httpd-php

Этим мы говорим серверу, что если будет запрос <адрес директории>/index/one/two, то ему следует считать, что index, это не папка, а файл. Кроме того это еще и PHP-скрипт. Естественно Вам нужно будет создать файл index (без расширения), в котором Вы будете разбирать все запросы.
4. И наконец самый мощный инструмент подмены URL-ов программный модуль mod_rewrite. В httpd.conf или .htaccess мы пишем

RewriteEngine On
Options +FollowSymlinks
RewriteBase /
RewriteRule ^index/(.*)$ /index.php/$1

Этим мы запускаем сам модуль, устанавливаем действие модуля только на текущий каталог, определяем корневой URL и говорим серверу, что при запросе пользователя index/<какой_угодно_текст> пользователь будет перенаправлен по адресу /index.php/<какой_угодно_текст>. Вроде практической выгоды от такого перенаправления нет, но, если мы будем использовать пункты 3 и 4 одновременно, то может получиться интересный результат. На своем сайте (webshops.ru) я сделал так:

RewriteEngine On
RewriteBase /
RewriteRule ^index/(.*)$ /index.php/$1

ForceType application/x-httpd-php

Т.е. включил механизм mod_rewrite, определил корневой URL, сказал серверу изменять все запросы index/<какой_угодно_текст> на index.php/<какой_угодно_текст> и сказал, что такой URL нужно принять за PHP-скрипт, выполнив index.php. Просто и со вкусом :).

Теперь, например, написав в строке броузера http://webshops.ru/index/webshops, Вы (сами этого не подозревая) будете перенаправлены на http://webshops.ru/index.php/webshops, а этот запрос будет выполнен как http://webshops.ru/index.php с той лишь разницей, что в переменной $REQUEST_URI окажется «/index/webshops», что после благополучной обработки скриптом, покажет Вам список web-магазинов с их описаниями :).

Такие URLы придутся по вкусу любому поисковому роботу (да и с эстетической точки зрения они выглядят лучше). Остался последний штрих.

В тексте скрипта, до вывода на экран чего-либо (!) мы отправляем в header две волшебные строчки:

Header(«HTTP/1.0 200 OK»); //строка нужна только для п. 1
Header(«Last-Modified: «.gmdate(«D, M d Y H:i:s»,filemtime(«index.php»)).» GMT»); //строка пригодится в любом случае

Первая строчка говорит роботу, что это обычная страница, а вторая — прописывает дату модификации, основываясь на дате последнего изменения index.php (файл, которым Вы обрабатываете все запросы).
Если у Вас не отображаются картинки на странице, Вы можете прописать абсолютные пути к каждой картинке. Но лучше вместо этого прописать в выдаваемой страницы строчку . Этим Вы скажете броузеру, что если посетитель забрел в виртуальную директорию (а именно так называются директории, которые мы только что научились делать), следует отсчитывать путь к картинке не от нее (ее нет :)), а от http://ваш_сайт.ru/.

Разработка и создание сайтов, интернет-магазинов, веб-приложений, порталов, лэндингов, мобильных приложений (Киев)

Как повысить PageRank

Цитаты из статьи по PageRank (http://www.woweb.ru/publ/31-1-0-714):

Вычисление Pagerank
Представьте себе идеального веб-серфера перемещающегося по всемирной

паутине. Пусть сёрфер посещает страницу p, случайное блуждание
при этом находится в состоянии p.
На каждом шаге, веб-сёрфер либо перепрыгивает на другую страницу в сети, выбранную
псевдо-случайным образом, либо он следует по ссылке на текущей странице, при
этом не возвращаясь и не посещая одну и ту же страницу дважды. Вероятность
случайного прыжка обозначим как d тогда вероятность перехода по ссылке
будет 1-d.
Таким образом, вероятность нахождения пользователя на странице p
можно вычислить по следующей формуле:

где R(p) — PageRank страницы, С(p) — число
ссылок на странице, к — число ссылающихся на p страниц, d-
коэффициент затухания (damping factor). Обычно 0.1масштабировать PageRank таким образом, что

где N — число всех страниц, для которых
производится расчёт PageRank, то R(p)
можно рассматривать как распределение вероятности по всем страницам.

Для вычисления PageRank составляется матрица M размером
NxN, где каждому элементу mij матрицы присваивается
значение R0(p)=1N в том случае, если с i -й страницы имеется ссылка на
j-ую, все оставшиеся элементы матрицы заполняются нулями.
Таким образом, вычисление PageRank сводится к отысканию собственного вектора
матрицы M что достигается умножением матрицы M
на вектор Rj
на каждом шагу итерации. Введение коэффициента затухания
гарантирует, что процесс сходится.
Если зарегистрировать сайт во всех популярных каталогах, то PageRank
будет очень высоким
Не стоит обольщаться — PageRank
вычисляется не для сайта целиком, а для отдельно взятой страницы. Поэтому ссылка из глубокой поддириктории,
скажем в Yahoo, может быть менее ценна чем страница Васи Пупкина. Так что, тут можно
взять не качеством ссылок, а их количеством. Надо только обращать внимание на то,
чтобы ссылки из каталога шли напрямую на ваш сайт, а не через cgi-скрипт,
иначе они просто не будут учитываться. Кроме того, правила многих каталогах
требуют размещения корневой страницы, а не того документа, PageRank которого вы
собираетесь повышать. Поэтому гораздо эффективнее можно повысить PageRank
конкретной страницы ссылкой с корневой страницы своего собственного сайта.

PageRank уменьшается при проставлении внешних ссылок
Весьма спорное утверждение, как говорилось выше PageRank
понижается в случае симметричного
объединения ссылающихся страниц, вероятность получить которое при проставлении
внешней ссылки ничтожно мала. Если такую фобию в себе не перебороть, то можно
дать совет завести специальную страницу для обмена ссылками. Кстати, стоит
заметить, что при расчёте PageRank никто не обещал разделять ссылки на внешние и внутренние.

Если добиться высокого PageRank для какой-то страницы, то
эта страница будет на первом месте в результатах поиска.
Не верно, по той причине, что PageRank является не основным критерием для
ранжирования страниц, а вспомогательным. В противном случае, на первых
страницах по очень многим запросам располагались бы только рейтинги и топы.
Только при прочих равных условиях страница с более высоким PageRank
будет располагаться выше в результатах поиска.

Если на какой-то сайт есть много ссылок с
FFA, гостевых книг или на сайтов другой тематики, то PageRank
будет занижен.
Не стоит путать понятия <индекс цитирования> и PageRank. При расчёте PageRank
анализ содержимого ни сайта ни текста ссылки не производится, учитываются
только общее число ссылок и их веса, поэтому никаких штрафных санкций при
наличии ссылок с <неправильных> страниц не применяется.

Как запомнить пароль и имя пользователя в TortoiseSVN при работе через ssh

В процессе работы с TortoiseSVN через ssh начинает надоедать сто кратный ввод пароля и имени пользователя. Немного порывшись в интернете нашёл способ, как решить данный вопрос.
Вот лекарство:
Щёлкните правой клавише в браузере и выбери в выпадающем меню:
TortoiseSVN -> Settings -> Network.
В поле SSH client вводите строку, подобную:
C:\Program Files\TortoiseSVN\bin\TortoisePlink.exe -l ПользовательВSSH -pw ПарольДляПользователяВSSH

Конечно, если у Вас TortoisePlink.exe находится не в C:\Program Files\TortoiseSVN\bin\, то укажите тот путь, по которому он находится.

Генерация сертификата для https в Linux Ubuntu

Входим в /usr/local/ssl/misc

создаем корневой сертификат
./CA.sh -newca

генерируем личный ключ и сертификационный запрос сервера
./CA.sh -newreq

и подписываем его своим корневым сертификатом.
./CA.sh -sign

переписываем ключ и сертификат сервера в служебный каталог Apache
cp newreq.pem /usr/local/etc/apache/sslkey/server.key

cp newcert.pem /usr/local/etc/apache/ssl.crt/server.crt

Файл корневого сертификата ./demoCA/cacert.pem необходимо
распространить по клиентским компьютерам.

Взято из http://www.opennet.ru/tips/info/681.shtml
Так же полезно прочитать: http://www.opennet.ru/base/net/apache_mod_ssl.txt.html

Страница 20 из 31« Первая...10...1819202122...30...Последняя »