Tensorflow: ValueError : Variabel proj_w sudah ada, tidak diizinkan. apakah Anda bermaksud mengatur reuse=true di VarScope?

Dibuat pada 21 Jun 2016  ·  1Komentar  ·  Sumber: tensorflow/tensorflow

Masalah GitHub adalah untuk bug / masalah instalasi / permintaan fitur.
Untuk dukungan umum dari komunitas, lihat StackOverflow .
Untuk membuat bug dan permintaan fitur lebih mudah ditemukan dan diatur, kami menutup masalah yang dianggap
di luar cakupan untuk Masalah GitHub dan mengarahkan orang ke StackOverflow.

Untuk bug atau masalah penginstalan, berikan informasi berikut.
Semakin banyak informasi yang Anda berikan, semakin mudah kami dapat menawarkan
bantuan dan saran.

Informasi lingkungan

Sistem operasi:

Versi CUDA dan cuDNN yang diinstal: 7.5
(harap lampirkan output dari ls -l /path/to/cuda/lib/libcud* ):

  1. Keluaran dari python -c "import tensorflow; print(tensorflow.__version__)" . 0.8

Jika diinstal dari sumber, berikan hash komit:

Langkah-langkah untuk mereproduksi

Saya telah membuat layanan web REST untuk menjalankan terjemahan mesin dengan beberapa modifikasi di translate.py. Jika saya menjalankan fungsi decode di translate.py saja, pada beberapa kali saya mendapatkan hasil yang tepat. Tetapi ketika saya mencoba menjalankan fungsi decode melalui webservice yang telah saya buat, pertama kali, saya mendapatkan hasil terjemahan. Tetapi pada iterasi kedua, saya mendapatkan kesalahan yang disebutkan dalam judul.

Apa yang sudah kamu coba?

  1. Saya mencoba menutup sesi di akhir fungsi decode di translate.py.

    Log atau keluaran lain yang akan membantu

(Jika log besar, harap unggah sebagai lampiran).
log-1.txt

>Semua komentar

Ini kedengarannya lebih seperti pertanyaan untuk Stack Overflow daripada bug di TensorFlow, dan kami memerlukan lebih banyak detail untuk menjawab secara pasti.

Namun, saya menduga masalahnya adalah Anda membangun kembali grafik di setiap permintaan, dan ada beberapa tabrakan antara variabel yang dibagikan. Pendekatan terbaik adalah membuat grafik sekali dan menggunakannya kembali untuk semua permintaan. Solusi cepat adalah dengan membungkus panggilan Anda ke demo1.demo(input) dalam blok with tf.Graph().as_default(): , untuk memastikan bahwa model dibuat ulang dalam grafik kosong.

Apakah halaman ini membantu?
0 / 5 - 0 peringkat