2.5 KiB
FAQ
インストールと環境
transformers のバージョンは?
4.31.0 が望ましいです。
コードとチェックポイントをダウンロードしましたが、モデルをローカルにロードできません。どうすればよいでしょうか?
コードを最新のものに更新し、すべてのシャードされたチェックポイントファイルを正しくダウンロードしたかどうか確認してください。
qwen.tiktoken
が見つかりません。これは何ですか?
これは tokenizer のマージファイルです。ダウンロードする必要があります。git-lfs を使わずにリポジトリを git clone しただけでは、このファイルをダウンロードできないことに注意してください。
transformers_stream_generator/tiktoken/accelerate が見つかりません。
コマンド pip install -r requirements.txt
を実行してください。このファイルは https://github.com/QwenLM/Qwen-VL/blob/main/requirements.txt にあります。
デモと推論
デモはありますか?
ウェブデモは web_demo_mm.py
を参照してください。詳細は README を参照してください。
Qwen-VLはストリーミングに対応していますか?
いいえ、まだサポートしていません。
世代と命令は関係ないようですが...
Qwen-VL ではなく Qwen-VL-Chat を読み込んでいないか確認してください。Qwen-VL はアライメントなしのベースモデルで、SFT/Chat モデルとは動作が異なります。
量子化はサポートされていますか?
いいえ。早急に量子化をサポートするつもりです。
長いシーケンスの処理で不満足なパフォーマンス
NTK が適用されていることを確認してください。config.json
の use_dynamc_ntk
と use_logn_attn
を true
に設定する必要がある(デフォルトでは true
)。
Tokenizer
bos_id/eos_id/pad_id が見つかりません。
私たちのトレーニングでは、セパレータとパディングトークンとして <|endoftext|>
のみを使用しています。bos_id、eos_id、pad_id は tokenizer.eod_id に設定できます。私たちの tokenizer について詳しくは、tokenizer についてのドキュメントをご覧ください。