PowerBI で DevOps ダッシュボードをデプロイする
データ パイプラインによって、Jira インスタンスからデータをエクスポートして、お気に入りのビジネス インテリジェンス ツールで分析できます。
まず、Tableau で DevOps テンプレートが開発されました。これは、エンジニアリング チームの健全性に関する有用なインサイトを提供します。また、独自のダッシュボードやレポートを作成するための最適な出発点となるはずです。
DevOps ダッシュボードでデータ パイプラインを最大限に活用する方法をご確認ください
このページでは、サンプルの DevOps テンプレートを Microsoft PowerBI にデプロイして、データ ソースに接続する方法について説明します。
PowerBI 用の DevOps ダッシュボード テンプレートをダウンロードする
データ パイプライン CSV をインポートする
独自のデータでテンプレートを使用する前に、Jira Data Center のデータ パイプラインによってエクスポートされた CSV ファイルを、データベースまたは blob ストレージにインポートする必要があります。
サンプル DevOps テンプレートでは、次のファイルを使用します。
issues_job<job_id>_<timestamp>.csv
ファイル。issue_history_job<job_id>_<timestamp>.csv
ファイル。
このデータをインポートする方法は、保存場所によって異なります。
Azure blob ストレージ
2 つの CSV ファイルをコンテナにアップロードします。
ファイル名を次のように変更する必要があります。
issues.csv
issue_history.csv
Azure SQL と PostgreSQL
データベースで、次のように issues
と issue_history
の各テーブルを作成します。
CREATE TABLE issues (
id varchar(50),
instance_url varchar(1000),
"key" varchar(1000),
url varchar(1000),
project_key varchar(1000),
project_name varchar(1000),
project_type varchar(1000),
project_category varchar(1000),
issue_type varchar(1000),
summary varchar(1000),
description varchar(2000),
environment varchar(2000),
creator_id varchar(50),
creator_name varchar(1000),
reporter_id varchar(50),
reporter_name varchar(1000),
assignee_id varchar(50),
assignee_name varchar(1000),
status varchar(1000),
status_category varchar(1000),
priority_sequence varchar(1000),
priority_name varchar(1000),
resolution varchar(1000),
watcher_count varchar(50),
vote_count varchar(50),
created_date varchar(50),
resolution_date varchar(50),
updated_date varchar(50),
due_date varchar(50),
estimate varchar(50),
original_estimate varchar(50),
time_spent varchar(50),
parent_id varchar(50),
security_level varchar(1000),
labels varchar(1000),
components varchar(1000),
affected_versions varchar(1000),
fix_versions varchar(100));
CREATE TABLE issue_history (
issue_id varchar(50),
changelog_id varchar(50),
author_id varchar(50),
author_key varchar(1000),
created_date varchar(50),
field_type varchar(1000),
field varchar(1000),
"from" varchar(1000),
from_string varchar(1000),
"to" varchar(1000),
to_string varchar(1000),
additional_information varchar(2000));
適切な CSV ファイルを各テーブルにインポートします。
SQL の場合は、Microsoft ドキュメントの「CSV から Azure SQL Database または SQL Managed Instance にデータを読み込む (フラット ファイル)」をご参照ください。
PostgreSQL では、いくつかのメソッドを使用できます。推奨されるメソッドについては「CSV ファイルを PostgreSQL テーブルにインポートする」をご確認ください。
テンプレートを起動してデータに接続する
データのインポートが完了したので、PowerBI で .pbix
テンプレートを起動してデータ ソースに接続します。
データに接続するには、次の手順に従います。
- PowerBI Desktop を開いて、ファイルを起動します。
- [データを取得] を選択します。
- データ ソースを選択して、プロンプトに従ってデータベースの詳細と資格情報を入力します。
- 含める課題と issue_history テーブル、[読み込む] の順に選択します。
- [再読み込み] を選択して、ダッシュボード データを更新します。
- ダッシュボードにデータが表示されます。
データ ソースの接続または置換の詳細については「Microsoft PowerBI ドキュメント」をご参照ください。