Программирование Посоветуйте новичку.

lapidus12

Premium Lite
Регистрация
31 Мар 2017
Сообщения
23
Реакции
3
  • 1)Хочу организовать сразу несколько сайтов, будет ли гугл все их нормально индексировать, если я буду использовать одинаковый дизайн?


  • 2)Если же нельзя использовать одинаковый дизайн, то каких изменений будет достаточно?



  • 3)Как защитить свои порталы,статьи и прочие производные от моей деятельности от копирайта?И нужно ли защищать от чего либо еще?
 

1. Гугл оценивает не дизайн, а контент и при правильном написании проблем не возникнет
2. Можно использовать, тут больше вопрос если будут близнецы по дизайну, главно чтоб посетитель не запутался в сайтах по тематике например
3. От копирования защитить не возможно на 100% , смотря какие цели преследовать и например Яндекс позволяет в кабинете заранее регистрировать содержание сайта, чтоб Яндекс понимал кто первоисточник. У Гугла нет такой функции
 

1. Гугл оценивает не дизайн, а контент и при правильном написании проблем не возникнет
2. Можно использовать, тут больше вопрос если будут близнецы по дизайну, главно чтоб посетитель не запутался в сайтах по тематике например
3. От копирования защитить не возможно на 100% , смотря какие цели преследовать и например Яндекс позволяет в кабинете заранее регистрировать содержание сайта, чтоб Яндекс понимал кто первоисточник. У Гугла нет такой функции
Хотелось бы уточнить насчет 3 вопроса,неужели вообще никак нельзя защитить контент?То есть вообще на это забить и никаких действий не предпринимать?
 

Рекламное сообщение


⚡Автоматизированный продукт для заработка от @pirate_crypto - Copy Trade Service ⚡

Друзья, ранее мы не раз упоминали, что ведем разработку сервиса, который позволит войти в крипто торговлю с любыми знаниями и умениями в этой теме. Но что самое главное, наш сервис позволяет не участвовать вам в торговле практически полностью, ведь основной фишкой сервиса является то, что за вас торгуем мы 🪙

➡️➡️➡️ Подробнее о сервисе, отзывы
 

Тем кто профессионально занимается, преград нет. При желании могу отключить всякие скрипты, ещё масса методов и в крайнем случае скриншот , который распознать как текст в спец. программе. Если видит глаз, то можно и перепечатать в ручную. Парсеры это не браузеры, они также просты и не замечают порой защит.

Что можно :
Поставить легкую блокировку скриптами
А на самом деле почти забить на эту проблему. Писать статьи и стараться сразу индексировать их в поисковиках. В Яндексе есть спец место в кабинете для закрепления авторства. В Гугле через УРЛдурилку, а там они сами разберутся кто автор и кого первым рейтинге поиска показать.

Если бы все боялись плагиата, интернет был бы пустой
 

1)Хочу организовать сразу несколько сайтов, будет ли гугл все их нормально индексировать, если я буду использовать одинаковый дизайн?

лучше разный сделать, картинки и т.п. будут под одинаковыми названиями, гугл может среагировать
 

Люди использую стандартные шаблоны в Вордпрессе, неужто 10000 уникализируют шаблоны. Вот при создании контента, да
Надо учитывать 100 и более хотелок Гугла, а в этом помогут чеклисты от ведущих блоггеров. Тут и копирайт , картинки с фотостоков, тайтлы, и прочие

В таком случае Гугл простит общий дизайн :)
 

1) Если контент разный то норм будет индексировать .
3) От копирайта ни как не защититься на 100 процентов , но можно пойти на разные ухищрения, например на многих сайтов где продают платные рефераты и курсовые работы есть скрипт который запрещает выделять текст в блоке и нажатие правой кнопки мыши не работает , но он тоже не защищает на 100 процентов , потому как грамотный пользователь который владеет основами html и css просто откроет код блока и снимет галочку со скрипта или же просто откроет код страницы и скопирует содержимое, но как правило это умеют 30 процентов от общей массы пользователей сети.
 

Обратите внимание

Назад
Сверху