clip | スキル詳細 | OpenClaw Study

OpenAI の視覚と言語をつなぐモデルです。ゼロショット画像分類、画像とテキストのマッチング、クロスモーダル検索を可能にします。約4億件の画像–テキストペアで学習済み。微調整なしで画像検索、コンテンツモデレーション、視覚言語タスクに利用できます。汎用的な画像理解に最適です。

OpenAI の視覚と言語をつなぐモデルです。ゼロショット画像分類、画像とテキストのマッチング、クロスモーダル検索を可能にします。約4億件の画像–テキストペアで学習済み。微調整なしで画像検索、コンテンツモデレーション、視覚言語タスクに利用できます。汎用的な画像理解に最適です。

このページは OpenClaw Skills 学習ハブの一部で、導入手順・カテゴリ導線・実践リンクを提供します。

English 简体中文 繁體中文 Español Português