見出し抽出
指定したURLのページから見出し(h1~h6)を抽出します。
URLを入力 (最大20URLまで一括処理可能)
見出し抽出ツールとは?
見出し抽出ツールは、指定したURLからページタイトル(<title>
タグ)、meta description、そして見出しタグ(<h1>
~<h6>
タグ)を効率的に抽出するオンラインツールです。サーバーサイドAPIによる高速な並列処理で、最大20URLまでの一括処理に対応しています。抽出結果はCSV形式でダウンロードでき、SEO分析やコンテンツ調査の効率化に役立ちます。
活用シーン
SEO分析と改善
- 見出し構造の最適化: ページの見出し階層が適切に設定されているか確認し、SEOに最適な見出し構造に改善できます
- キーワード分析: 見出し内のキーワード使用状況を把握し、SEO対策の効果を向上させます
- メタ情報の一括チェック: タイトルやmeta descriptionの長さや内容を一度に確認できます
Webサイト制作・管理
- サイト構造の把握: 複数ページの見出し構造を抽出して比較し、サイト全体の一貫性を確認できます
- コンテンツ監査: 既存ページの見出し構成を確認し、リライトや構成変更の参考にできます
- 競合サイト調査: 競合サイトの見出し構造を分析し、コンテンツ戦略の参考にできます
見出し抽出ツールの使い方
- URLを入力: 見出しを抽出したいWebページのURLを入力エリアに貼り付けます(最大20URLまで一括処理が可能です)
- 抽出オプションを設定:
- 抽出する見出しタグレベルを選択(h1~h6)
- ナビゲーション等の要素除外設定を選択
- 抽出を実行: 【見出しを抽出】ボタンをクリックして処理を開始します
- 結果を確認: 抽出された見出し構造とメタ情報をプレビューで確認します
- データをダウンロード: 分析のため結果をCSVファイルとして保存します
複数URLの一括処理(最大20URL)
一度に複数のページから見出しを抽出する場合は、URLを改行で区切って入力します。20URLを超える場合は自動的に最初の20URLが処理されます。例えば:
https://example.com/page1
https://example.com/page2
https://example.com/page3
サーバーサイドでの並列処理により、複数URLでも高速に処理が行われます。各ページの抽出結果は一覧で表示され、成功したページの結果は正常に表示され、エラーが発生したページはエラーメッセージが表示されます。
除外機能による精度向上
「ナビゲーション等の要素を除外する」オプションを有効にすると、以下の要素内の見出しを除外して、コンテンツの見出しのみを抽出することができます:
- ナビゲーション (
<nav>
要素) - ヘッダー (
<header>
要素) - フッター (
<footer>
要素) - サイドバー (
<aside>
要素)
この機能により、ページの主要コンテンツの見出し構造をより正確に分析することができます。
抽出対象のタグをカスタマイズ
抽出したい見出しタグのレベルを自由に指定することができます。特定の見出しレベルのみに注目したい場合に便利な機能です:
- すべての見出し:
<h1>
から<h6>
までのすべての見出しを抽出(デフォルト) - 主要見出しのみ:
<h1>
、<h2>
などの主要な見出しのみに絞り込み - 特定レベルの見出し: 分析目的に応じて特定のレベルの見出しだけを抽出
CSVデータフォーマット
ダウンロードされるCSVファイルには以下のデータが含まれます:
- 基本情報
- URL
- title(ページタイトル)
- description(メタディスクリプション、存在する場合)
- タグ別カウント
- h1 count, h2 count, h3 count, h4 count, h5 count, h6 count
- 見出し一覧
- ページ内の順序で並んだ見出しテキスト
- フォーマット:
h1,見出しテキスト
、h2,見出しテキスト
など
抽出データの活用方法
抽出したデータは様々な形で活用することができます:
- スプレッドシートでの分析: CSVをExcelやGoogleスプレッドシートで開いて、見出し構造を分析
- 見出し構造の比較: 複数ページの見出し構造を並べて比較し、一貫性をチェック
- SEOレポート作成: クライアントや上司へのSEOレポート資料として活用
- タグ別統計: 各見出しレベルの使用頻度を分析してSEO対策に活用
制限事項と注意点
URL数の上限について
処理効率と安定性を重視し、一度に処理できるURL数は最大20URLまでに制限されています。20URLを超える場合は、自動的に最初の20URLが処理対象として選択されます。
- 並列処理による高速化: サーバーサイドでの並列処理により、複数URLでも効率的に処理が行われます
- 部分成功への対応: 一部のURLでエラーが発生しても、他のURLの処理結果は正常に表示されます
- 安定性の確保: URL数制限により、ブラウザの負荷やタイムアウトエラーを防止することができます
アクセス制限サイトについて
一部のWebサイトでは、セキュリティ対策やプライバシー保護のためにコンテンツへのアクセスが制限されている場合があります:
- ログインが必要なサイト
- JavaScriptによるレンダリングが必要なサイト
- アクセス制限やレート制限が設定されたサイト
このようなサイトでは、見出しが正常に抽出できない場合があります。エラーが発生した場合は、該当URLのみエラーメッセージが表示され、他のURLの処理には影響しません。