Suggestion for optimising Artifacts size/storage

お困りですか?

アトラシアン コミュニティをご利用ください。

コミュニティに質問

プラットフォームについて: Data Center - この記事は、Data Center プラットフォームのアトラシアン製品に適用されます。

このナレッジベース記事は製品の Data Center バージョン用に作成されています。Data Center 固有ではない機能の Data Center ナレッジベースは、製品のサーバー バージョンでも動作する可能性はありますが、テストは行われていません。サーバー*製品のサポートは 2024 年 2 月 15 日に終了しました。サーバー製品を利用している場合は、アトラシアンのサーバー製品のサポート終了のお知らせページにて移行オプションをご確認ください。

*Fisheye および Crucible は除く

要約

Large Artifacts stored without compression will potentially lead to excess storage capacity usage. A job can be customised to ensure the Artifacts produced by Bamboo are compressed into a single or multiple files.

環境

Bamboo Datacenter

提案

  1. Enable package threshold for the type of Artifact storage. With this option, when the number of files that match the Artifact exceeds the threshold, Bamboo packs the Artifact into a single file. (Bamboo uses zip compression, and you can implement Artifact compression before publishing Artifact with solution C below.)
    1. For Bamboo server Artifact handler, navigate to Artifact Handlerscheck  Enable package threshold and Add a value for the required threshold → Save

    2. For Amazon S3, navigate to Artifact HandlersAdd a value for the required threshold → Save
    3. Add a script task as the last task for the Job which produces the Artifact. The script's responsibility is to compress the expected Artifact into a single compressed file, e.g;

      Compress
      tar cvf archive.tar.gz --use-compress-program='gzip -9' *.txt
      1. Modify the Artifacts definition to produce the compressed file, e.g **/*.gz 

        • To use the Artifact, a Script task can be added to the Deployment Task or child plans after the Artifacts download task, this will ensure the Artifacts are uncompressed before usage.



最終更新日: 2024 年 1 月 16 日

この内容はお役に立ちましたか?

はい
いいえ
この記事についてのフィードバックを送信する
Powered by Confluence and Scroll Viewport.