banner
ニュース センター
24 時間オンライン サービスでいつでもサポートを受けられます。

「ブラック ボックス」を開梱してより優れた AI モデルを構築する

Dec 28, 2023

MIT ニュース オフィスの Web サイトでダウンロードできる画像は、クリエイティブ コモンズ表示、非営利、改変禁止ライセンスに基づいて、非営利団体、報道機関、および一般の人々に提供されています。 提供された画像は、サイズに合わせてトリミングする以外に変更することはできません。 画像を複製する場合はクレジットラインを使用する必要があります。 以下に提供されていない場合は、画像のクレジットを「MIT」に記載してください。

前の画像 次の画像

ディープラーニング モデルが現実世界に導入されると、おそらくクレジット カードの使用状況から金融詐欺を検出したり、医療画像からがんを特定したりするため、多くの場合、人間を上回るパフォーマンスを発揮できます。

しかし、これらの深層学習モデルは一体何を学習しているのでしょうか? たとえば、臨床画像で皮膚がんを見つけるように訓練されたモデルは、実際にがん組織の色や質感を学習しているのでしょうか、それとも他の特徴やパターンにフラグを立てているのでしょうか?

これらの強力な機械学習モデルは通常、予測を行うためにデータを処理する数百万のノードを持つ人工ニューラル ネットワークに基づいています。 その複雑さのため、研究者はこれらのモデルを「ブラック ボックス」と呼ぶことがよくあります。モデルを構築する科学者ですら、内部で何が起こっているのかすべてを理解しているわけではないからです。

ステファニー・ジェゲルカ氏は、その「ブラックボックス」の説明に満足していません。 マサチューセッツ工科大学電気工学・コンピューターサイエンス学部の新たに終身在職権を取得した准教授であるジェゲルカ氏は、これらのモデルが何を学習し、どのように動作するのか、また特定の事前情報をこれらのモデルに組み込む方法を理解するためにディープラーニングを深く研究しています。

「結局のところ、深層学習モデルが何を学習するかは、非常に多くの要因によって決まります。 しかし、実際に関連する理解を構築することは、より良いモデルを設計するのに役立ちます。また、モデルの内部で何が起こっているのかを理解して、いつモデルをデプロイできるか、いつデプロイできないかを知るのにも役立ちます。 それは非常に重要です」と、コンピューターサイエンスおよび人工知能研究所 (CSAIL) とデータ・システム・社会研究所 (IDSS) のメンバーでもあるジェゲルカ氏は言います。

Jegelka 氏は、入力データがグラフの形式である場合の機械学習モデルの最適化に特に興味を持っています。 グラフ データには特有の課題があります。たとえば、データ内の情報は、個々のノードとエッジに関する情報と、何が何に接続されているかという構造に関する情報の両方で構成されます。 さらに、グラフには数学的対称性があり、たとえば、同じグラフが常に同じ予測につながるように、機械学習モデルはこれを尊重する必要があります。 このような対称性を機械学習モデルに組み込むのは通常、簡単ではありません。

分子を例に考えてみましょう。 分子は、原子に対応する頂点と原子間の化学結合に対応するエッジを持つグラフとして表すことができます。 製薬会社は、ディープラーニングを使用して多くの分子の特性を迅速に予測し、研究室で物理的にテストする必要がある分子の数を絞り込みたいと考えるかもしれません。

Jegelka 氏は、グラフ データを入力として効果的に受け取り、別のもの (この場合は分子の化学的特性の予測) を出力できる数学的機械学習モデルを構築する方法を研究しています。 分子の特性はその中の原子だけでなく原子間の結合によっても決まるため、これは特に困難です。

グラフ上の機械学習の他の例には、トラフィック ルーティング、チップ設計、レコメンダー システムなどがあります。

これらのモデルの設計は、モデルのトレーニングに使用されるデータが実際にモデルが参照するデータと異なることが多いという事実によりさらに困難になります。 おそらく、モデルは小さな分子グラフまたは交通ネットワークを使用してトレーニングされた可能性がありますが、展開されると表示されるグラフは大きくなるか、より複雑になります。

この場合、研究者はこのモデルが何を学ぶことを期待できますか?また、現実世界のデータが異なる場合でもモデルは実際に機能するでしょうか?