ウェブサイト|データセット| github |出版物
より少ない測定を取得することにより、磁気共鳴画像(MRI)を加速することは、医療コストを削減し、患者へのストレスを最小限に抑え、現在法外に遅いか高価なアプリケーションでMRイメージングを可能にする可能性があります。
FastMriは、MRIスキャンをより速くするためのAIの使用を調査するために、Facebook AI Research(FAIR)およびNYU Langone Healthの共同研究プロジェクトです。 NYU Langone Healthは、FastMRIデータセットページからダウンロードできる完全に匿名化された膝と脳のMRIデータセットをリリースしました。 FastMRIプロジェクトに関連する出版物は、このREADMEの終わりに見つけることができます。
このリポジトリには、便利なPytorchデータローダー、サブサンプリング機能、評価メトリック、および簡単なベースラインメソッドの参照実装が含まれています。また、FastMRIプロジェクトのいくつかの出版物のメソッドの実装も含まれています。
データのさまざまなサブコンポーネント(脳と膝など)と関連するベースラインを説明する複数の出版物があります。 FastMRIデータはすべて、FastMRIデータセットページからダウンロードできます。
プロジェクトの概要、データセット、ベースライン: FastMRI:加速MRIのオープンデータセットとベンチマーク({J. Zbontar*、F。Knoll*、A。Sriram*} et al。、2018)
膝データ: FastMRI:機械学習を使用した加速MR画像再構成のための膝の画像の公開されている生のKスペースとDICOMデータセット({F. Knoll*、J。Zbontar*} et al。、2020)
脳データセットプロパティ:機械学習のための2020年のFastMRIチャレンジの結果の補足資料MR画像再建({M. Muckley*、B。Riemenschneider*} et al。、2021)
前立腺データ: FastMri前立腺:前立腺がんイメージングの機械学習を進めるための公開された二葉測定MRIデータセット(Tibrewala et al。、2023)
コードドキュメントの場合、ほとんどの機能とクラスには、IPythonのhelp機能を介してアクセスできるドキュストリングが付随しています。例えば:
from fastmri . data import SliceDataset
help ( SliceDataset )注:コードへの貢献は、GitHubアクションを介して継続的にテストされます。問題が発生した場合、最初のことは、 setup.cfg 、たとえば、PIPインストール - 編集」のtests環境と一致させることですpip install --editable ".[tests]"ソースからインストールするとき。
注:第215号で文書化されているように、 pipからインストールされ、 torch.Tensorに変換されたh5pyを使用すると、現在メモリリークがあります。リークを避けるには、1.12.1の前にh5py HDF5のバージョンで使用する必要があります。 2022年2月16日の時点で、 h5py 3.6.0のcondaバージョンはHDF5 1.10.6を使用しましたが、これはリークを回避します。
最初に、オペレーティングシステムとCUDAセットアップについては、Pytorch Webサイトの指示に従ってPytorchをインストールします。次に、実行します
pip install fastmri pipすべてのパッケージ依存関係を処理します。この後、リポジトリでほとんどのコードを実行できるはずです。
githubソースから直接インストールする場合は、リポジトリをクローンし、 fastmriルートディレクトリに移動して実行します
pip install -e . リポジトリは、 fastmriモジュールを中心としています。以下は、基本構造を分類します。
fastmri :複雑な数学、コイルの組み合わせなどのためのいくつかの基本ツールが含まれています。
fastmri.data :サンプリングマスクと送信ファイルを作成するために使用できる元のdataフォルダーからのデータユーティリティ関数が含まれています。fastmri.models :u-netやvarnetなどの再構築モデルが含まれています。fastmri.pl_modules :データの読み込み、トレーニング、ロギングのためのPytorch Lightningモジュール。 fastmri_examplesとbanding_removalフォルダーには、再現性のコードが含まれています。ベースラインモデルは、Arxivペーパーで使用されました。
コードへのリンクが続く論文に基づく実装の簡単な要約。完全性については、別のリポジトリでホストされているアクティブな取得に関する作業についても言及しています。
ベースラインモデル
サンプリング、再構築、およびアーティファクト補正
積極的な取得
前立腺データ
pytest testsを実行します。デフォルトでは、FastMRIデータを使用する統合テストがスキップされます。これらのテストを実行したい場合は、 SKIP_INTEGRATIONS contESTでFalseに設定します。
データREADMEには、データをロードしてデータ変換を組み込む方法のベアボーンの例があります。このJupyterノートには、データの操作を開始する方法を説明する簡単なチュートリアルが含まれています。
Pytorch Lightningフレームワークを使用してモデルをトレーニングする方法の例については、このU-Netデモスクリプトをご覧ください。
通知:ディスカッション293で文書化されているように、FastMri.orgドメインは2023-04-17にメタ所有権からNYUの所有権に転送され、NYUはまだサイトを再建していません。サイトとリーダーバードがNYUによって再建されるまで、リーダーボードは利用できません。緩和はディスカッション293で提示されています。
Fastmriは、ライセンスファイルにあるように、MITライセンスを取得しています。
プロジェクトでFastMRIデータまたはコードを使用する場合は、ARXIVペーパーを引用してください。
@misc { zbontar2018fastMRI ,
title = { {fastMRI}: An Open Dataset and Benchmarks for Accelerated {MRI} } ,
author = { Jure Zbontar and Florian Knoll and Anuroop Sriram and Tullie Murrell and Zhengnan Huang and Matthew J. Muckley and Aaron Defazio and Ruben Stern and Patricia Johnson and Mary Bruno and Marc Parente and Krzysztof J. Geras and Joe Katsnelson and Hersh Chandarana and Zizhao Zhang and Michal Drozdzal and Adriana Romero and Michael Rabbat and Pascal Vincent and Nafissa Yakubova and James Pinkerton and Duo Wang and Erich Owens and C. Lawrence Zitnick and Michael P. Recht and Daniel K. Sodickson and Yvonne W. Lui } ,
journal = { ArXiv e-prints } ,
archivePrefix = " arXiv " ,
eprint = { 1811.08839 } ,
year = { 2018 }
}プロジェクトでFastMri前立腺データまたはコードを使用する場合は、その論文を引用してください。
@misc { tibrewala2023fastmri ,
title = { {FastMRI Prostate}: A Publicly Available, Biparametric {MRI} Dataset to Advance Machine Learning for Prostate Cancer Imaging } ,
author = { Tibrewala, Radhika and Dutt, Tarun and Tong, Angela and Ginocchio, Luke and Keerthivasan, Mahesh B and Baete, Steven H and Chopra, Sumit and Lui, Yvonne W and Sodickson, Daniel K and Chandarana, Hersh and Johnson, Patricia M } ,
journal = { ArXiv e-prints } ,
archivePrefix = " arXiv " ,
eprint = { 2304.09254 } ,
year = { 2023 }
}以下には、FastMRIプロジェクトの論文のタイトルがリストされています。対応する要約とプレプリントとコードへのリンクは、ここにあります。