tacotron2を実行しようとする際にエラーが出る

実現したいこと

下記のサイトを参考にし、ローカル環境でtactron2の実行を目指しています。
https://trend-tracer.com/python-tacotron2/#

学習の実行まではこぎつけることができましたが、学習をしようとするとエラーが出てしまいます。どうやらcudaのバージョンとpytorchのバージョンが合っていないみたいでcudaのバージョンを下げたりもしてみたのですが、自力では解決できませんでした。

自分ではわからないので、お知恵を拝借させていただければ幸いです。
どうかよろしくお願いいたします。

前提

Windows10
anaconda
Python3.6
NVIDIA GeForceRTX 3070 Ti
Cuda 11.8(→10.1にも直して試してみた)
Pytorch1.6

環境構築から実行までのコマンド

pip install tensorflow==1.15.5 pip install torch torchvision torchaudio --extra-index-url https://download.pytorch.org/whl/cu117 git clone https://github.com/NVIDIA/tacotron2.git cd tacotron2 git submodule init git submodule update pip install -r requirements.txt # Apexのインストール git clone https://github.com/NVIDIA/apex cd apex pip install -v --no-cache-dir --no-build-isolation --global-option="--cpp_ext" --global-option="--cuda_ext" --global-option="-deprecated_fused_adam" --global-option="--xentropy" --global-option="--fast_multihead_attn" ./ # 学習実行 python train.py --output_directory=outdir --log_directory=logdir -c tacotron2_statedict.pt --warm_start

エラー出力

WARNING:tensorflow: The TensorFlow contrib module will not be included in TensorFlow 2.0. For more information, please see: * https://github.com/tensorflow/community/blob/master/rfcs/20180907-contrib-sunset.md * https://github.com/tensorflow/addons * https://github.com/tensorflow/io (for I/O related ops) If you depend on functionality not listed there, please file an issue. FP16 Run: False Dynamic Loss Scaling: True Distributed Run: False cuDNN Enabled: True cuDNN Benchmark: False C:\Users\ユーザ名\AppData\Roaming\Python\Python36\site-packages\torch\cuda\__init__.py:125: UserWarning: NVIDIA GeForce RTX 3070 Ti with CUDA capability sm_86 is not compatible with the current PyTorch installation. The current PyTorch install supports CUDA capabilities sm_37 sm_50 sm_60 sm_61 sm_70 sm_75 compute_37. If you want to use the NVIDIA GeForce RTX 3070 Ti GPU with PyTorch, please check the instructions at https://pytorch.org/get-started/locally/ warnings.warn(incompatible_device_warn.format(device_name, capability, " ".join(arch_list), device_name))

コメントを投稿

0 コメント