データ パイプライン
要件
REST API を使用してデータのエクスポートをトリガーするには、次が必要です。
- 有効な Confluence Data Center ライセンス
- システム管理者グローバル権限
Considerations
開始する前に、多数のセキュリティとパフォーマンスへの影響を考慮する必要があります。
セキュリティ
エクスポート パフォーマンス
データ パイプラインにアクセスする
To access the data pipeline go to
> Data pipeline.定期エクスポートをスケジュール
エクスポートのステータスを確認する
エクスポートをキャンセルする
プロジェクトをエクスポートから除外する
自動データ エクスポート キャンセル
データ エクスポートの設定
次のシステム プロパティを使用して、エクスポート データの形式を設定できます。
データ パイプライン REST API を使用する
出力ファイル
エクスポートされたファイルの場所
エクスポートされたデータは個別の CSV ファイルとして保存されます。ファイルは次のディレクトリに保存されます。
- Confluence をクラスタで実行している場合は
<shared-home>/data-pipeline/export/<job-id>
<local-home>/data-pipeline/export/<job-id>
クラスタ化されていない Confluence を使用している
<job-id>
ディレクトリ内には次のファイルが表示されます。
users_job<job_id>_<schema_version>_<timestamp>.csv
spaces_job<job_id>_<schema_version>_<timestamp>.csv
pages_job<job_id>_<schema_version>_<timestamp>.csv
comments_job<job_id>_<schema_version>_<timestamp>.csv
analytics_events_job<job_id>_<schema_version>_<timestamp>.csv
これらのファイルでデータをロードして変換するには、そのスキーマを理解する必要があります。「データ パイプライン エクスポート スキーマ」をご参照ください。
カスタム エクスポート パスを設定する
Spark と Hadoop のインポート設定の例
既存の Spark インスタンスまたは Hadoop インスタンスがある場合は、次の参照を使用してさらに変換するためにデータをインポートする方法を設定します。