Cherepynets Illia
22 апреля, 2019     1 933     0

Как выгружать историю запросов из Search Console


В свое время я столкнулся с небольшой проблемой как выгружать свои поисковые запросы из Search Console. На эту тему есть пару статей в SEO блогах (serpstat, netpeak, 2steps, searchengines), но по их инструкции у меня ничего не вышло. И только после того как я совместил их наработки, я получил рабочий вариант.

Установка R и R Script

Для начала нам нужно установить «R» и «R Script» себе на компьютер. Скажу сразу, пк у меня на Windows 10 на macOS, может не работать, не проверял.

Запуск R Studio и парсинг ключей из Search console

Запускаем R Studio и создаем R Script (Ctrl+Shift+N)

Запускаем R Studio и создаем R Script

В поле «Console» загружаем первую часть скрипта.

RStudio

Скрипт — Часть 1

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
# Load packages.
# Load packages.
if(!("pacman" %in% installed.packages())) {install.packages("pacman")}
packages_load <- c('googleAuthR', 'dplyr')
pacman::p_load(packages_load, character.only = TRUE)
pacman::p_loaded()
packages_temp <- c('searchConsoleR')
packages_temp <- packages_temp[!packages_temp %in% pacman::p_library()]
if(length(packages_temp) > 0) pacman::p_install(packages_temp,
                                                character.only = TRUE)
rm(packages_load, packages_temp)
 
# Set a propety to fetch keywords data.
site            <- 'https://site.com/'
 
# Set a number of days for analysis. 
# The data will be fetched for a period 
# from (current date - (lookback_window + 3))
# to (current date - 3) 
# because of Google Search Console limits.
lookback_window <- 30*16
 
# Set a local directory where CSV file with keywords data will be exported.
export_path     <- 'C:/Users/User/SEO'
 
# Authenticate R in browser. 
# Authentication is asked with every run of this script.
# To use saved credentials comment new_user = TRUE
# in the code below.
searchConsoleR::scr_auth(
    new_user = TRUE
  )

Поля которые мы правим

1
2
3
site  &lt;- 'https://наш сайт/'
lookback_window &lt;- 30*16
export_path     &lt;- 'C:/Users/User/.../Путь где мы сохраним наши данные'

Нажимаем «Enter». Запустится скрипт и запросит Search code


Даем доступ и копируем наш Search code в Console нашего R Script

Добавляем и нажимаем «Enter». После этого добавляем вторую версию нашего скрипта.

Скрипт — Часть 2

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
# Use export_path to set a working directory.
# Use export_path to set a working directory.
setwd(export_path)
 
# Get keywords data from Google Search Console by day.
rez <- c((lookback_window + 3):3) %>%
  lapply(., function(x){
  date <- Sys.Date() - x
  print(date)
  searchConsoleR::search_analytics(siteURL = site,
                   startDate               = date,
                   endDate                 = date, 
                   searchType              = 'web', 
                   rowLimit                = 5000, 
                   aggregationType         = 'byPage', 
                   dimensions              = c('query', 'date')
  )
}) %>% 
  dplyr::bind_rows(.)
 
# Aggregate keywords data by query.
rez_aggr <- rez %>%
  group_by(query) %>%
  summarise(clicks      = sum(clicks),
            impressions = sum(impressions)) %>%
  ungroup(.) %>%
  arrange(-clicks)
 
# Calculate number of queries by day.
stats_by_date <- rez %>%
  group_by(date) %>%
  summarise(count = n())
 
# Download keywords data as CSV file in export_path directory.
write.csv(x         = rez, 
          file      = paste0('search_analytics_', Sys.Date(), '.csv'), 
          row.names = FALSE)
 
# Download aggregated keywords data as CSV file in export_path directory.
write.csv(x         = rez_aggr, 
          file      = paste0('search_analytics_aggr_', Sys.Date(), '.csv'), 
          row.names = FALSE)

Запустится наш сприпт.
RStudio start

Начинаем парсить данные с Search console

Примечание: Сам скрипт может отрабатывать долго, т.к. он по дням делает запросы за последние 16 месяцев.

RStudio парсинг
После окончания парсинга, мы получим вот такой результат в R Studio. И два файла с текущей датой в нашей папке.
RStudio конец

Работа с полученными данными

В фале search_analytics_20YY-MM-DD, мы получим ключи их ctr и позицию по дням. (query,»date»,»clicks»,»impressions»,»ctr»,»position»)
Microsoft Excel - search_analytics_2019-04-22

В фале search_analytics_aggr_20YY-MM-DD, мы увидим наши ключи, клики и общее количество показов за выбранный нами период. (query,»clicks»,»impressions»)

Как использовать эти данные уже решать вам 😊

Если вам понравился материал ставьте ➕➕➕


Оцените статью:

Оцениваю на 1Оцениваю на 2Оцениваю на 3Оцениваю на 4Оцениваю на 5 5,00 из 5 на основе 3 оценок
Загрузка...

РУБРИКИ

НОВОЕ

ТОП

Head of SEO
Регион: Malta


SEO Strategist
Регион: Miami, FL


Director of SEO
Регион: New York, NY


Head of SEO Content
Регион: Malta


Junior SEO Specialist
Регион: Texas


SEO & Content Specialist
Регион: Temecula, CA


Technical SEO Specialist
Регион: West Valley, UT


Digital Marketing/SEO Strategist
Регион: Springfield, MO


SEO Specialist (Remote)
Регион: San Francisco, CA


SEO & Paid Media Specialist
Регион: Garden City, NY


SEO Manager
Регион: Boston, MA


SEO/PPC Account Manager
Регион: Miami, FL


SEO Specialist
Регион: New York, NY


SEO Manager
Регион: New York, NY


Director of SEO
Регион: Charlotte, NC


Technical SEO
Регион: Houston, TX


SEO Specialist
Регион: Santa Monica, CA


SEO Specialist
Регион: Washington DC


Head of SEO
Регион: Montana


SEO Specialist
Регион: Northbrook, IL