Практическая работа «Сервисы аналитики» «работа с Google ANALYTICS, ЯНДЕКС.МЕТРИКА»
Цель: освоение навыков веб-аналитики, необходимых для эффективного мониторинга и анализа поведения пользователей на сайте.
Теоретические сведения
Веб-аналитика играет ключевую роль в интернет-маркетинге, позволяя специалистам отслеживать поведение пользователей и эффективность маркетинговых кампаний. Ниже перечислены основные инструменты, которые будут полезны маркетологам для веб-аналитики.
Веб-аналитика играет ключевую роль в интернет-маркетинге, позволяя специалистам отслеживать поведение пользователей и эффективность маркетинговых кампаний. Ниже перечислены основные инструменты, которые будут полезны маркетологам для веб-аналитики.
Яндекс.Метрика и Google analytics — это сервис веб-аналитики, который позволяет оценить посещаемость сайтов и поведение пользователей на них.
1. Задание составить таблицу сравнения по ключевым характеристикам сервисов-аналитиков (минимум 10).
Например
| Сервис | Тип | Стоимость | Основные функции | Преимущества | Недостатки |
| Google Analytics | Онлайн | Бесплатный / Платный | Отслеживание трафика, анализ поведения, конверсии, демография | Высокая точность, интеграция с другими продуктами Google | Ограниченные возможности в бесплатной версии |
| Яндекс Метрика | Онлайн | Бесплатный | Анализ посещаемости, источников трафика, конверсий | Удобная визуализация данных, быстрый старт | Ограниченный архив данных |
| …… | | | | | |
2. Проанализируйте информацию на сайте:
Яндекс.Метрика https://practicum.yandex.ru/blog/kak-rabotaet-yandex-metrika/ или https://www.mango-office.ru/products/calltracking/for-marketing/veb-analitika/chto-takoe-yandex-metrika/
Google analytics: https://texterra.ru/blog/google-analytics-dlya-nachinayushchikh-samoe-polnoe-rukovodstvo-v-runete.html
И составьте сравнительную таблицу по следующим например вопросам
Дайте ответы на вопросы
Как работает Яндекс.Метрика
Какие преимущества у Яндекс.Метрики и зачем они нужны
Как зарегистрироваться в Яндекс.Метрике
Как установить счетчик Метрики на сайт
Какими инструментами и отчетами можно пользоваться в Яндекс.Метрике
С какими платформами можно интегрировать Яндекс.Метрику
и т.д.
Практическая часть
Robots.txt (стандарт исключений для поисковых роботов) – один из важнейших системных файлов веб-сайта, представляет собой TXT-файл, содержащий правила индексирования для роботов поисковых систем. Был впервые представлен и принят консорциумом W3C 30 июня 1994 года. С тех пор используется большинством известных поисковых машин, хотя не является обязательным стандартом и используется на добровольной основе.
Цель создания Robots.txt является своего рода “маршрутной картой” для поисковых ботов и инструктирует их на этапах индексации сайта. Он объясняет роботам, какие директории или страницы сайта индексировать, а какие нет. С его помощью можно закрыть от индексации:
важные директории и файлы на сайте, например, панель администратора, личные кабинеты пользователей и т.д.;
технические, служебные страницы (напр. страница 404, версии страниц для печати, скрипты);
страницы регистрации и авторизации;
страницы внутреннего поиска по сайту;
формы заказов, квитанции, данные по доставке и т.д.;
разные конфиденциальные файлы;
дублированные или пустые страницы;
текстовые документы, например PDF и другие части сайта, которые не должны попадать в поиск.
Выявить проблемы с robots.txt можно с помощью инструмента Аудит сайта: он покажет все важные для работы и продвижения сайта ошибки и выдаст инструкцию по их исправлению.
Создается robots.txt с помощью любого текстового редактора, поддерживающего веб-код, например Notepad++ (рекомендую) или AkelPad.
Название файла допускается только в нижнем регистре (lower-case) – “robots.txt”, но не Robots.txt или ROBOTS.TXT.
Файл нужно сохранить в кодировке UTF-8 или ASCII.
Robots.txt должен располагаться в корневой директории сайта и открываться по адресу: https://www.вашдомен.com/robots.txt
При наличии нескольких поддоменов или доменов с нестандартными портами, robots должен располагаться в корневой директории для каждого из них отдельно:
http://поддомен.вашдомен.com/robots.txt
http://вашдомен.com:8181/robots.txt
Отсутствие файла или пустой robots.txt означает, что поисковики могут индексировать абсолютно весь сайт – все его папки и файлы, а значит они будут в свободном доступе для каждого пользователя интернета.
Синтаксис файла robots довольно прост. Он состоит из директив, каждая начинается с новой строки, через двоеточие задается необходимое значение для директивы.
Директивы чувствительны к регистру и должны начинаться с заглавной буквы.
Основными являются три директивы, которые рекомендуется применять в такой последовательности:
User-agent: указывается название поискового робота, для которого будут применятся правила
В одном файле robots можно использовать сразу несколько User-agent, обязательно разделяя их пустой строкой, к примеру:
User-agent: Yandex
Disallow: /administrator/
Allow: /wp-content/uploads/
User-agent: Google
Disallow: /administrator/
Allow: /libraries/
Disallow: указывается относительный путь директории или файла сайта, которые нужно запретить индексировать
Allow: указывается относительный путь директории или файла, которые нужно разрешить поисковику индексировать (не является обязательной)
Для более гибкой настройки директив можно использовать дополнительные выражения:
* (звездочка) – перебор всех значений, любая последовательность символов;
$ (доллар) – конец строки;
# (решетка) – позволяет вставить комментарий. Все что идет за этим символом – робот не воспринимает до конца следующей строки;
Пример:
User-agent: * # правила будут действовать для всевозможных поисковых роботов
Disallow: /script$ # заблокирован 'script', но открыт '/script_public.pl'
Примечание: Файл robots.txt не рекомендуется сильно засорять, он не должен быть слишком габаритным (Google – до 500 кб, Yandex – до 32 кб), иначе поисковик его просто проигнорирует.
Созданный с нуля и оптимизированный файл robots.txt не забудьте отправить на проверку в инструменты для вебмастеров в ПС Яндекс и Google:
Проверка robots.txt в Яндекс Вебмастере
Проверка robots.txt в Google Search Consol
Эти инструменты позволяют проверить валидность robots.txt и на лету покажут ошибки, если они есть. Файл robots можно редактировать онлайн и сразу протестировать. Затем, если ошибок нет – просто скопируйте себе все строки и обновите robots.txt.
Яндекс Вебмастер
Таким образом, robots.txt играет очень важную роль в технической оптимизации сайта и позволяет выполнить ряд полезных функций, улучшая таким образом и его индексацию, и безопасность. Но подходить к оптимизации этого файла нужно осторожно, уделяя особое внимание всем директивам и их значениям. Можно легко ошибиться в регистре или закрыть от индексации, по невнимательности, важные части сайта или весь сайт, поэтому используйте файл с умом.
Официальная документация Google по robots.txt:
https://support.google.com/webmasters/answer/6062596?hl=ru
https://developers.google.com/search/reference/robots_txt?hl=ru
Официальная документация Яндекс по robots.txt:
https://yandex.ru/support/webmaster/controlling-robot/robots-txt.html#robots-txt
Официальная документация Mail.ru по robots.txt:
https://help.mail.ru/webmaster/indexing/robots.txt/rules
Официальная документация Yahoo по robots.txt:
https://help.yahoo.com/kb/learn-submit-website-yahoo-robotstxt-directive-sln2213.html
https://help.yahoo.com/kb/SLN22600.html
Официальная документация Bing по robots.txt:
https://www.bing.com/webmaster/help/how-to-create-a-robots-txt-file-cb7c31ec
Задание 1. Создайте сайт-витрину магазина на любую тему. К сайту создайте и отправте файл robots.txt. Проведите оптимизацию через яндекс.метрика и google analytics. К каждому пункту должен быть сделан скриншот тех настроек, которые менялись. Все скриншоты вставляем в отчет. Туда же копируем ссылку на сайт-витрину.
При выполнении заданий можно воспользоваться онлайн уроками
Яндекс.метрика https://dashchinskiy.com/free-yandex-metrica-course/
Google analytics https://dashchinskiy.com/free-course-google-analytics/
Рефлексия
Для чего нужны сервисы веб-аналитики?
С какими трудностями столкнулись при выполнении практической работы?
Как оцениваете свои знания при выполнении практической работы?
С какими веб-аналитики вы сталкивались на производственной практике и не только?
Оцените ваш уровень практического применения от 1 до 10, где 1 – самая низкая оценка
Список литературы
https://yandex.ru/adv/edu/materials/metrika-start - онлайн курсы от Яндекс (дата обращения: 25.08.2024). – Текст : электронный.