robots.txt を使用して検索エンジンから隠す
システム管理
- サーバーID を見つける
- Jira アプリケーションメモリの容量を増やす
- データベース整合性チェッカーの利用
- JSP ページのプリコンパイル
- ロギングとプロファイリング
- データをバックアップする
- データの復元
- サーチのインデクシング
- robots.txt を使用して検索エンジンから隠す
- 匿名ユーザー アクセスの制御
- Jira アプリケーションのライセンス
- システム情報の表示
- データベース接続使用率の監視
- Jira 診断プラグインを使用してインスタンスを監視する
- Jiraアプリケーションのインストゥルメンテーションによる統計情報を表示する
- スレッド ダンプの生成
- Jira アプリケーションの サポート資格番号 (SEN) を見つける
- Jira での監査
- データ パイプライン
- 重要なディレクトリとファイル
- Jira アプリケーションを Web サーバーに統合する
- Apache HTTP サーバーを利用して Jira アプリケーションを保護する
- Jira アプリケーションの TCP ポートの変更
- SSL サービスに接続する
- SSL または HTTPS 上での Jira アプリケーションの実行
- 外部環境にセキュリティを設定する
- データ収集ポリシー
- Jira 管理ヘルパー
- 管理者としてサポートリクエストを上げる
- Jira アプリケーションの起動と停止
- LexoRank の管理
- Jira クラスタの監視
- スケジューラー管理
- JMX インターフェイスを使用したライブ モニタリング
このページの内容
関連コンテンツ
- 関連コンテンツがありません
robots.txt protocol は検索エンジン(Google、MSN 等) に、サイトのクロールしてはいけない部分を示します。
ログインしていなユーザーが課題を閲覧できる Jira インスタンスに対し、robots.txt ファイルは「課題ナビゲーター」ビュー の不要なクロール (及び、Jira サーバーへの不要なロード) の防止に役立ちます。
robots.txt の編集
Jira (バージョン 3.7 以降) は、以下の robots.txt
ファイルを、Jira Web アプリケーションのルート ($JIRA-INSTALL/atlassian-jira
) にインストールします。
# robots.txt for Jira
# You may specify URLs in this file that will not be crawled by search engines (Google, MSN, etc)
#
# By default, all SearchRequestViews in the IssueNavigator (e.g.: Word, XML, RSS, etc) and all IssueViews
# (XML, Printable and Word) are excluded by the /sr/ and /si/ directives below.
User-agent: *
Disallow: /sr/
Disallow: /si/
または、すでに robots.txt
ファイルがある場合は、そのファイルを編集して Disallow: /sr/
および Disallow: /si/
を追加します。。
robots.txt の公開
robots.txt
ファイルは、Jira のインターネット ドメインのルート (例: jira.mycompany.com/robots.txt
) で公開する必要があります。
お使いの Jira インスタンスを jira.mycompany.com/jira
で公開している場合、ファイルの内容を Disallow: /jira/sr/
および Disallow: /jira/sr/
に変更します。ただし、robots.txt
ファイルは引き続き、jira.mycompany.com/robots.txt
などのルート ディレクトリ (jira.mycompany.com/jira/robots.txt
ではない) に格納する必要があります。
最終更新日 2021 年 5 月 7 日
関連コンテンツ
- 関連コンテンツがありません
Powered by Confluence and Scroll Viewport.