日本語AIでPubMedを検索
Wasserstein generative adversarial networksを用いた単一PETシステムにおける非減衰補正PET画像からのPET/CT画像の取得
Obtaining PET/CT images from non-attenuation corrected PET images in a single PET system using Wasserstein generative adversarial networks.
PMID: 32663812 DOI: 10.1088/1361-6560/aba5e9.
抄録
陽電子放出断層撮影(PET)画像は、疾患の早期発見や術後の患者の病期診断に欠かせない役割を果たしている。しかし、PET画像は解剖学的情報を提供するためにCT(Computed Tomography)画像を追加しなければならないだけでなく、正確なPET定量化のためにはCT画像から計算された減衰補正(AC)マップを必要とするため、必然的に患者は追加の電離放射線を受けなければならない。そこで本研究では,全身PET/CT画像を得るために,非減衰補正PET(NAC PET)スキャンから合成減衰補正PET(sAC PET)と合成CT(sCT)画像を推定するディープラーニングを用いた新しいアプローチを提案する.我々のモデルは2つの段階から構成されており、第1段階ではNAC PET画像からノイズやアーチファクトを除去してsAC PET画像を生成し、第2段階では第1段階で得られたsAC PET画像からsCT画像を合成する。両ステージとも同じ深層ワッサーシュタイン生成的逆襲ネットワーク(DWGAN)と類似の損失関数を採用しており、提案モデルがより現実的で満足のいく出力画像を生成することを促している。提案アルゴリズムの性能を評価するために、臨床患者のPET/CT画像の合計45セットを対象とした包括的な研究を行った。最終的な実験結果として、生成されたsAC PETおよびsCT画像は、質的および量的解析の両方において、真のAC PETおよび真のCT画像と非常に類似性が高いことが示された。これらの結果は、将来的には、ハイブリッドPET/CTシステムにおける追加の解剖学的イメージングの必要性や、PET/MRIシステムにおける長時間のMRシーケンス取得の必要性を減らすために、我々の提案するアルゴリズムが非常に大きな可能性を秘めていることを示している。
Positron emission tomography (PET) imaging plays an indispensable role in early disease detection and postoperative patient staging diagnosis. However, PET imaging not only requires additional computed tomography (CT) imaging to provide anatomical information but also requires attenuation correction (AC) maps computed from CT images for accurate PET quantification, which inevitably demands that patients undergo additional doses of ionizing radiation. To reduce the radiation dose and simultaneously obtain high-quality PET/CT images, in this work, we present a new approach based on deep learning that can estimate synthetic attenuation corrected PET (sAC PET) and synthetic CT (sCT) images from non-attenuation corrected PET (NAC PET) scans for whole-body PET/CT imaging. Our model consists of two stages: the first stage removes noise and artifacts from the NAC PET images to generate sAC PET images, and the second stage synthesizes sCT images from the sAC PET images obtained in the first stage. Both stages employ the same deep Wasserstein generative adversarial network (DWGAN) and similar loss functions, which encourage the proposed model to generate more realistic and satisfying output images. To evaluate the performance of the proposed algorithm, we conducted a comprehensive study on a total of forty-five sets of paired PET/CT images of clinical patients. The final experimental results demonstrated that both the generated sAC PET and sCT images showed great similarity to true AC PET and true CT images based on both qualitative and quantitative analyses. These results indicate that in the future, our proposed algorithm has tremendous potential for reducing the need for additional anatomic imaging in hybrid PET/CT systems or the need for lengthy MR sequence acquisition in PET/MRI systems.
© 2020 Institute of Physics and Engineering in Medicine.