Поради Semalt щодо використання глибокого навчання для оптимізації автоматизованого тегу заголовка



Швидкий спосіб взяти на себе ініціативу в рейтингу SEO - це включити ключове слово з найвищим рейтингом до тегу заголовка. І якщо ви задумаєтесь на хвилинку, то зрозумієте, що це справді розумне рішення. Якщо у вас є сторінка, яка вже класифікується за ключовим словом, не маючи цього ключового слова в заголовку, уявіть, наскільки важливо мати ключове слово в заголовку. Ви, природно, будете індексуватися частіше за цим ключовим словом; отже, ви ставите краще.

Тепер, якщо ми взяли це ключове слово та додали його до вашого Мета-опису, вони з’являться виділеними в результатах пошуку, що означає, що більше користувачів пошукової системи, швидше за все, натиснуть. Звичайно, це піде на користь веб-сайту.

Уявіть, Семальт працював над веб-сайтом із сотнями, тисячами чи мільйонами сторінок. Якби нам довелося зробити це вручну, це зайняло б багато часу і швидко дорожило. То як же тоді ми можемо проаналізувати цю сторінку та оптимізувати кожен заголовок та мета-опис? Рішення полягає у використанні машини. Навчаючи машину знаходити ключові слова з найвищим рейтингом на кожній сторінці, ми економимо час і витрати. Використання машини може закінчитися ефективніше та швидше, ніж команда введення даних.

Давайте знову представимо Ludwig Uber та T5 Google

Поєднуючи Людвіга з Uber та T5 від Google, ви отримаєте досить потужну систему.

Підсумовуючи, Ludwig - це інструмент автоматичного ML з відкритим кодом, який дозволяє своїм користувачам навчати вдосконаленим моделям без необхідності писати будь-який код.

З іншого боку, Google T5 є чудовою версією моделей у стилі SERT. T5 може узагальнювати, перекладати, відповідати на запитання та класифікувати пошукові запити, а також багато інших функцій. У двох словах, це дуже потужна модель.

Однак немає жодних ознак того, що Т5 пройшов навчання з оптимізації тегів заголовків. Але, можливо, ми можемо це зробити, і ось як:
  • Ми отримуємо навчений набір даних із прикладами:
    • Оригінальні теги заголовків без цільового ключового слова
    • Наші цільові ключові слова
    • Оптимізовані теги заголовків із цільовими ключовими словами
  • Код налаштування T5 та підручники для використання
  • Майте набір назв, які не оптимізовані, щоб ми могли протестувати нашу модель
Ми розпочнемо з уже створеного набору даних та надамо керівництво щодо того, як ми створили набір даних.

Автори T5 були досить щедрими, щоб надати нам детальний блокнот Google Colab, який ми використовуємо для точної настройки T5. Потративши час на його вивчення, ми змогли відповісти на довільні дрібниці. У ноутбуці Colab також є вказівки щодо того, як налаштувати T5 на нові завдання. Однак, коли ви дивитесь на зміни коду та необхідну підготовку даних, ви виявляєте, що це вимагає багато роботи і що наші ідеї можуть бути ідеальними.

Але що, якби це могло бути простіше? Завдяки версії 3 Uber Ludwig, яка вийшла кілька місяців тому, у нас є комбінація деяких дуже корисних функцій. Версія 3.0 Людвіга постачається з:
  • Механізм оптимізації гіперпараметрів, який отримує додаткові характеристики від моделей.
  • Безкодова інтеграція зі сховищем Transformers Hugging Face. Це надає користувачам доступ до оновлених моделей, таких як GPT-2, T5, DistilBERT та Electra, для задач обробки природних мов. Деякі з таких завдань включають аналіз настроїв класифікації, розпізнавання іменних сутностей, відповіді на запитання тощо.
  • Він новіший, швидший, модульний і має розширювану серверну систему, яка базується на TensorFlow 2.
  • Він забезпечує підтримку багатьох нових форматів даних, таких як Apache Parquet, TSV та JSON.
  • У ньому є коробка ввімкнення перехресної перевірки k-fold.
  • Інтегрований з вагами та ухилами, він може використовуватися для управління та контролю кількох модельних навчальних процесів.
  • Він має новий тип векторних даних, який підтримує шумні мітки. Це стане в нагоді, якщо ми маємо справу зі слабким наглядом.
Є кілька нових функцій, але ми вважаємо інтеграцію до Трансформерів Обіймливого Обличчя однією з найкорисніших функцій. Конвеєри обіймів для обличчя можуть бути використані для значного покращення зусиль SEO щодо заголовків та генерації мета-описів.

Використовувати конвеєр - це чудово, щоб запускати прогнози на моделях, які вже навчені і вже доступні у вікні моделі. Однак наразі не існує моделей, які могли б робити те, що нам потрібно, тому ми поєднуємо Людвіга та Пайплайн, щоб створити грізний автоматичний заголовок та метаопис для кожної сторінки веб-сайту.

Як ми використовуємо Людвіга для точної настройки T5?

Це важливе питання, оскільки ми намагаємося показати нашим клієнтам, що саме відбувається на тлі їх веб-сайту. Десь тут є кліше, яке говорить: "Використовувати Людвіга для тренування Т5 настільки просто, ми повинні розглянути можливість його незаконного використання". Правда в тому, що ми б платили за своїх клієнтів набагато вищі, якби нам довелося найняти інженера зі штучного інтелекту, який зробив би еквівалент.

Тут ви дізнаєтесь, як ми точно налаштовуємо T5.
  • Крок 1: Відкрийте новий блокнот Google Colab. Після цього ми змінюємо Runtime для використання GPU.
  • Ми завантажуємо вже зібраний набір даних Hootsuite.
  • Потім ми встановлюємо Людвіга.
  • Після встановлення ми завантажуємо навчальний набір даних у фрейм даних pandas та перевіряємо його, щоб побачити, як він виглядає.
  • Тоді ми стикаємось з найважливішою перешкодою, яка полягає у створенні належного конфігураційного файлу.
Побудова ідеальної системи вимагає документації для Т5 і постійних спроб і помилок, поки ми не зрозуміємо це правильно. (було б дуже далеко, якщо ви знайдете тут код Python для створення).

Обов’язково перегляньте словники функцій введення та виведення та переконайтесь, що ваші налаштування правильно підібрані. Якщо все буде зроблено правильно, Людвіг почне використовувати "t5-small" як модель, що працює. Для більших моделей T5 легше змінити концентратор моделі та потенційно покращити її генерацію.

Після тренування моделі протягом декількох годин ми починаємо отримувати вражаючу точність перевірки.

Важливо, щоб ви зауважили, що Людвіг автоматично вибирає інші важливі вимірювання генерації тексту, головним чином сум'яття та редагування відстані. Це обидва низькі цифри, які нам підходять як слід.

Як ми використовуємо наші навчені моделі для оптимізації назв

Випробування наших моделей - справді цікава частина.

По-перше, ми завантажуємо тестовий набір даних з неоптимізованими заголовками Hootsuite, які залишались невидимими моделі під час навчання. Ви зможете переглянути набір даних за допомогою цієї команди:

!керівник

Hootsuite_titles_to_optimize.csv

Дуже вражає, що Людвіг і Т5 можуть зробити так багато з будь-яким невеликим навчальним набором, і вони не потребують вдосконаленого налаштування гіперпараметрів. Правильний тест зводиться до того, як він взаємодіє з нашими цільовими ключовими словами. Наскільки добре воно поєднується?

Створення програми оптимізації тегу заголовка за допомогою Streamlight

Автори вмісту вважають цю програму найбільш корисною. Чи не було б дивно мати простий у використанні додаток, який не вимагає великих технічних знань? Ну, саме для цього тут Streamlight.

Його установка, як і використання, є досить прямою. Ви можете встановити його за допомогою:

! pip встановити раціоналізацію

Ми створили додаток, який використовує цю модель. За потреби ми можемо запустити його з того самого місця, де ми тренуємо модель, або завантажити вже навчену модель туди, де плануємо запустити сценарій. Ми також підготували файл CSV із заголовками та ключовими словами, які ми сподіваємось оптимізувати.

Тепер ми запускаємо додаток. Для запуску моделі нам потрібно вказати шлях до файлу CSV, який містить заголовки та ключові слова, які ми сподіваємось оптимізувати. Назви стовпців CSV повинні відповідати іменам під час навчання Людвіга. Якщо модель не оптимізує всі заголовки, не варто панікувати; Отримати пристойний номер правильно - це також чудовий крок вперед.

Як експерти з Python, ми дуже раді, працюючи з цим, оскільки це зазвичай змушує нас перекачувати кров.

Як створити власний набір даних для навчання

Використовуючи заголовки Hootsuite, ми можемо навчити моделі, які будуть добре працювати для наших клієнтів, але можуть бути стандартними для їхніх конкурентів. Ось чому ми гарантуємо, що створюємо власний набір даних, і ось як ми це робимо.
  • Ми використовуємо власні дані з Google Search Console або Bing Webmaster Tools.
  • Як альтернативу ми також можемо отримувати дані про конкуренцію наших клієнтів з SEMrush, Moz, Ahrefs тощо.
  • Потім ми пишемо сценарій для тегів заголовків, а потім розділяємо заголовки, які мають і не мають цільового ключового слова.
  • Ми беремо заголовки, оптимізовані за допомогою ключових слів, і замінюємо ключові слова синонімами, або використовуємо інші методи, щоб заголовок був "деоптимізований".

Висновок

Семальт тут, щоб допомогти вам оптимізувати ваші теги заголовка, а також мета-описи автоматично. Роблячи це, ви можете залишатись вперед у SERP. Аналіз веб-сайту ніколи не є простим завданням. Ось чому навчання машини, яка допоможе нам це зробити, не лише економить витрати, але й економить час.

У Semalt є професіонали, які налаштують ваш набір даних, Людвіг та T5, щоб ви завжди могли перемагати.

Зателефонуйте нам сьогодні.

mass gmail