СДЕЛАЙТЕ СВОИ УРОКИ ЕЩЁ ЭФФЕКТИВНЕЕ, А ЖИЗНЬ СВОБОДНЕЕ

Благодаря готовым учебным материалам для работы в классе и дистанционно

Скидки до 50 % на комплекты
только до

Готовые ключевые этапы урока всегда будут у вас под рукой

Организационный момент

Проверка знаний

Объяснение материала

Закрепление изученного

Итоги урока

Практическая работа СЕРВИСЫ АНАЛИТИКИ

Категория: Информатика

Нажмите, чтобы узнать подробности

Цель: освоение навыков веб-аналитики, необходимых для эффективного мониторинга и анализа поведения пользователей на сайте.

Просмотр содержимого документа
«Практическая работа СЕРВИСЫ АНАЛИТИКИ»



Практическая работа «Сервисы аналитики» «работа с Google ANALYTICS, ЯНДЕКС.МЕТРИКА»



Цель: освоение навыков веб-аналитики, необходимых для эффективного мониторинга и анализа поведения пользователей на сайте.

Теоретические сведения

Веб-аналитика играет ключевую роль в интернет-маркетинге, позволяя специалистам отслеживать поведение пользователей и эффективность маркетинговых кампаний. Ниже перечислены основные инструменты, которые будут полезны маркетологам для веб-аналитики.


Веб-аналитика играет ключевую роль в интернет-маркетинге, позволяя специалистам отслеживать поведение пользователей и эффективность маркетинговых кампаний. Ниже перечислены основные инструменты, которые будут полезны маркетологам для веб-аналитики.


Яндекс.Метрика и Google analytics — это сервис веб-аналитики, который позволяет оценить посещаемость сайтов и поведение пользователей на них.


1. Задание составить таблицу сравнения по ключевым характеристикам сервисов-аналитиков (минимум 10).


Например

Сервис

Тип

Стоимость

Основные функции

Преимущества

Недостатки

Google Analytics

Онлайн

Бесплатный / Платный

Отслеживание трафика, анализ поведения, конверсии, демография

Высокая точность, интеграция с другими продуктами Google

Ограниченные возможности в бесплатной версии

Яндекс Метрика

Онлайн

Бесплатный

Анализ посещаемости, источников трафика, конверсий

Удобная визуализация данных, быстрый старт

Ограниченный архив данных

……







2. Проанализируйте информацию на сайте:

Яндекс.Метрика https://practicum.yandex.ru/blog/kak-rabotaet-yandex-metrika/ или https://www.mango-office.ru/products/calltracking/for-marketing/veb-analitika/chto-takoe-yandex-metrika/

Google analytics: https://texterra.ru/blog/google-analytics-dlya-nachinayushchikh-samoe-polnoe-rukovodstvo-v-runete.html

И составьте сравнительную таблицу по следующим например вопросам

Дайте ответы на вопросы

  1. Как работает Яндекс.Метрика

  2. Какие преимущества у Яндекс.Метрики и зачем они нужны

  3. Как зарегистрироваться в Яндекс.Метрике

  4. Как установить счетчик Метрики на сайт

  5. Какими инструментами и отчетами можно пользоваться в Яндекс.Метрике

  6. С какими платформами можно интегрировать Яндекс.Метрику

  7. и т.д.


Практическая часть

Robots.txt (стандарт исключений для поисковых роботов) – один из важнейших системных файлов веб-сайта, представляет собой TXT-файл, содержащий правила индексирования для роботов поисковых систем. Был впервые представлен и принят консорциумом W3C 30 июня 1994 года. С тех пор используется большинством известных поисковых машин, хотя не является обязательным стандартом и используется на добровольной основе.  

Цель создания Robots.txt является своего рода “маршрутной картой” для поисковых ботов и инструктирует их на этапах индексации сайта. Он объясняет роботам, какие директории или страницы сайта индексировать, а какие нет. С его помощью можно закрыть от индексации:

  • важные директории и файлы на сайте, например, панель администратора, личные кабинеты пользователей и т.д.;

  • технические, служебные страницы (напр. страница 404, версии страниц для печати, скрипты);

  • страницы регистрации и авторизации;

  • страницы внутреннего поиска по сайту;

  • формы заказов, квитанции, данные по доставке и т.д.;

  • разные конфиденциальные файлы;

  • дублированные или пустые страницы;

  • текстовые документы, например PDF и другие части сайта, которые не должны попадать в поиск.

Выявить проблемы с robots.txt можно с помощью инструмента  Аудит сайта: он покажет все важные для работы и  продвижения сайта ошибки и выдаст инструкцию по их исправлению.

Создается robots.txt с помощью любого текстового редактора, поддерживающего веб-код, например Notepad++ (рекомендую) или AkelPad.
Название файла допускается только в нижнем регистре (lower-case) – “robots.txt”, но не Robots.txt или ROBOTS.TXT.

Файл нужно сохранить в кодировке UTF-8 или ASCII.

Robots.txt должен располагаться в корневой директории сайта и открываться по адресу: https://www.вашдомен.com/robots.txt

При наличии нескольких поддоменов или доменов с нестандартными портами, robots должен располагаться в корневой директории для каждого из них отдельно:

http://поддомен.вашдомен.com/robots.txt

http://вашдомен.com:8181/robots.txt

Отсутствие файла или пустой robots.txt означает, что поисковики могут индексировать абсолютно весь сайт – все его папки и файлы, а значит они будут в свободном доступе для каждого пользователя интернета.



Синтаксис файла robots довольно прост. Он состоит из директив, каждая начинается с новой строки, через двоеточие задается необходимое значение для директивы.

Директивы чувствительны к регистру и должны начинаться с заглавной буквы.
Основными являются три директивы, которые рекомендуется применять в такой последовательности: 

  1. User-agent: указывается название поискового робота, для которого будут применятся правила

В одном файле robots можно использовать сразу несколько User-agent, обязательно разделяя их пустой строкой, к примеру:

User-agent: Yandex

Disallow: /administrator/

Allow: /wp-content/uploads/


User-agent: Google

Disallow: /administrator/

​Allow: /libraries/

  1. Disallow: указывается относительный путь директории или файла сайта, которые нужно запретить индексировать
     Allow: указывается относительный путь директории или файла, которые нужно разрешить поисковику индексировать (не является обязательной)

Для более гибкой настройки директив можно использовать дополнительные выражения:

  • * (звездочка) – перебор всех значений, любая последовательность символов;

  • $ (доллар) – конец строки;

  • # (решетка) – позволяет вставить комментарий. Все что идет за этим символом – робот не воспринимает до конца следующей строки;

Пример:

User-agent: * # правила будут действовать для всевозможных поисковых роботов

Disallow: /script$ # заблокирован 'script', но открыт '/script_public.pl'


Примечание: Файл robots.txt не рекомендуется сильно засорять, он не должен быть слишком габаритным (Google – до 500 кб, Yandex – до 32 кб), иначе поисковик его просто проигнорирует.


Созданный с нуля и оптимизированный файл robots.txt не забудьте отправить на проверку в инструменты для вебмастеров в ПС Яндекс и Google:

Проверка robots.txt в Яндекс Вебмастере

Проверка robots.txt в Google Search Consol

Эти инструменты позволяют проверить валидность robots.txt и на лету покажут ошибки, если они есть. Файл robots можно редактировать онлайн и сразу протестировать. Затем, если ошибок нет – просто скопируйте себе все строки и обновите robots.txt.

Яндекс Вебмастер






Таким образом, robots.txt играет очень важную роль в технической оптимизации сайта и позволяет выполнить ряд полезных функций, улучшая таким образом и его индексацию, и безопасность. Но подходить к оптимизации этого файла нужно осторожно, уделяя особое внимание всем директивам и их значениям. Можно легко ошибиться в регистре или закрыть от индексации, по невнимательности, важные части сайта или весь сайт, поэтому используйте файл с умом.

Официальная документация Google по robots.txt:

https://support.google.com/webmasters/answer/6062596?hl=ru

https://developers.google.com/search/reference/robots_txt?hl=ru

Официальная документация Яндекс по robots.txt:

https://yandex.ru/support/webmaster/controlling-robot/robots-txt.html#robots-txt

Официальная документация Mail.ru по robots.txt:
https://help.mail.ru/webmaster/indexing/robots.txt/rules
Официальная документация Yahoo по robots.txt:
https://help.yahoo.com/kb/learn-submit-website-yahoo-robotstxt-directive-sln2213.html
https://help.yahoo.com/kb/SLN22600.html

Официальная документация Bing по robots.txt:
https://www.bing.com/webmaster/help/how-to-create-a-robots-txt-file-cb7c31ec


Задание 1.
Создайте сайт-витрину магазина на любую тему. К сайту создайте и отправте файл robots.txt. Проведите оптимизацию через яндекс.метрика и google analytics. К каждому пункту должен быть сделан скриншот тех настроек, которые менялись. Все скриншоты вставляем в отчет. Туда же копируем ссылку на сайт-витрину.

При выполнении заданий можно воспользоваться онлайн уроками

Яндекс.метрика https://dashchinskiy.com/free-yandex-metrica-course/

Google analytics https://dashchinskiy.com/free-course-google-analytics/


Рефлексия

  1. Для чего нужны сервисы веб-аналитики?

  2. С какими трудностями столкнулись при выполнении практической работы?

  3. Как оцениваете свои знания при выполнении практической работы?

  4. С какими веб-аналитики вы сталкивались на производственной практике и не только?

  5. Оцените ваш уровень практического применения от 1 до 10, где 1 – самая низкая оценка


Список литературы

https://yandex.ru/adv/edu/materials/metrika-start - онлайн курсы от Яндекс (дата обращения: 25.08.2024). – Текст : электронный.