PowerBI で DevOps ダッシュボードをデプロイする
データ パイプラインによって、Jira インスタンスからデータをエクスポートして、お気に入りのビジネス インテリジェンス ツールで分析できます。
まず、Tableau で DevOps テンプレートが開発されました。これは、エンジニアリング チームの健全性に関する有用なインサイトを提供します。また、独自のダッシュボードやレポートを作成するための最適な出発点となるはずです。
On this page:
このページでは、サンプルの DevOps テンプレートを Microsoft PowerBI にデプロイして、データ ソースに接続する方法について説明します。
PowerBI 用の DevOps ダッシュボード テンプレートをダウンロードする
データ パイプライン CSV をインポートする
独自のデータでテンプレートを使用する前に、Jira Data Center のデータ パイプラインによってエクスポートされた CSV ファイルを、データベースまたは blob ストレージにインポートする必要があります。
サンプル DevOps テンプレートでは、次のファイルを使用します。
issues_job<job_id>_<timestamp>.csv
ファイル。issue_history_job<job_id>_<timestamp>.csv
ファイル。
このデータをインポートする方法は、保存場所によって異なります。
Azure blob ストレージ
2 つの CSV ファイルをコンテナにアップロードします。
ファイル名を次のように変更する必要があります。
issues.csv
issue_history.csv
Azure SQL と PostgreSQL
データベースで、次のように issues
と issue_history
の各テーブルを作成します。
CREATE TABLE issues (
id varchar(50),
instance_url varchar(1000),
"key" varchar(1000),
url varchar(1000),
project_key varchar(1000),
project_name varchar(1000),
project_type varchar(1000),
project_category varchar(1000),
issue_type varchar(1000),
summary varchar(1000),
description varchar(2000),
environment varchar(2000),
creator_id varchar(50),
creator_name varchar(1000),
reporter_id varchar(50),
reporter_name varchar(1000),
assignee_id varchar(50),
assignee_name varchar(1000),
status varchar(1000),
status_category varchar(1000),
priority_sequence varchar(1000),
priority_name varchar(1000),
resolution varchar(1000),
watcher_count varchar(50),
vote_count varchar(50),
created_date varchar(50),
resolution_date varchar(50),
updated_date varchar(50),
due_date varchar(50),
estimate varchar(50),
original_estimate varchar(50),
time_spent varchar(50),
parent_id varchar(50),
security_level varchar(1000),
labels varchar(1000),
components varchar(1000),
affected_versions varchar(1000),
fix_versions varchar(100));
CREATE TABLE issue_history (
issue_id varchar(50),
changelog_id varchar(50),
author_id varchar(50),
author_key varchar(1000),
created_date varchar(50),
field_type varchar(1000),
field varchar(1000),
"from" varchar(1000),
from_string varchar(1000),
"to" varchar(1000),
to_string varchar(1000),
additional_information varchar(2000));
適切な CSV ファイルを各テーブルにインポートします。
SQL の場合は、Microsoft ドキュメントの「CSV から Azure SQL Database または SQL Managed Instance にデータを読み込む (フラット ファイル)」をご参照ください。
PostgreSQL では、いくつかのメソッドを使用できます。推奨されるメソッドについては「CSV ファイルを PostgreSQL テーブルにインポートする」をご確認ください。
テンプレートを起動してデータに接続する
データのインポートが完了したので、PowerBI で .pbix
テンプレートを起動してデータ ソースに接続します。
データに接続するには、次の手順に従います。
- PowerBI Desktop を開いて、ファイルを起動します。
- [データを取得] を選択します。
- データ ソースを選択して、プロンプトに従ってデータベースの詳細と資格情報を入力します。
- 含める課題と issue_history テーブル、[読み込む] の順に選択します。
- [再読み込み] を選択して、ダッシュボード データを更新します。
- ダッシュボードにデータが表示されます。
データ ソースの接続または置換の詳細については「Microsoft PowerBI ドキュメント」をご参照ください。