丁香五月天婷婷久久婷婷色综合91|国产传媒自偷自拍|久久影院亚洲精品|国产欧美VA天堂国产美女自慰视屏|免费黄色av网站|婷婷丁香五月激情四射|日韩AV一区二区中文字幕在线观看|亚洲欧美日本性爱|日日噜噜噜夜夜噜噜噜|中文Av日韩一区二区

您正在使用IE低版瀏覽器,為了您的雷峰網(wǎng)賬號(hào)安全和更好的產(chǎn)品體驗(yàn),強(qiáng)烈建議使用更快更安全的瀏覽器
此為臨時(shí)鏈接,僅用于文章預(yù)覽,將在時(shí)失效
人工智能開發(fā)者 正文
發(fā)私信給AI研習(xí)社
發(fā)送

0

如何用 TensorFlow 教機(jī)器人作曲?秘訣原來是這樣

本文作者: AI研習(xí)社 2017-05-03 16:12
導(dǎo)語:你的機(jī)器人會(huì)唱原創(chuàng)歌曲么?

雷鋒網(wǎng)按:本文作者楊熹,原文載于作者個(gè)人博客,雷鋒網(wǎng)已獲授權(quán)。

今天想來看看 AI 是怎樣作曲的。

本文會(huì)用 TensorFlow 來寫一個(gè)音樂生成器。

當(dāng)你對(duì)一個(gè)機(jī)器人說:我想要一種能夠表達(dá)出希望和奇跡的歌曲時(shí),發(fā)生了什么呢?

計(jì)算機(jī)會(huì)首先把你的語音轉(zhuǎn)化成文字,并且提取出關(guān)鍵字,轉(zhuǎn)化成詞向量。然后會(huì)用一些打過標(biāo)簽的音樂的數(shù)據(jù),這些標(biāo)簽就是人類的各種情感。接著通過在這些數(shù)據(jù)上面訓(xùn)練一個(gè)模型,模型訓(xùn)練好后就可以生成符合要求關(guān)鍵詞的音樂。程序最終的輸出結(jié)果就是一些和弦,他會(huì)選擇最貼近主人所要求的情感關(guān)鍵詞的一些和弦來輸出。當(dāng)然你不只是可以聽,也可以作為創(chuàng)作的參考,這樣就可以很容易地創(chuàng)作音樂,即使你還沒有做到刻意練習(xí)1萬小時(shí)。

機(jī)器學(xué)習(xí)其實(shí)是為了擴(kuò)展我們的大腦,擴(kuò)展我們的能力。

DeepMind 發(fā)表了一篇論文,叫做 WaveNet, 這篇論文介紹了音樂生成和文字轉(zhuǎn)語音的藝術(shù)。

通常來講,語音生成模型是串聯(lián)。這意味著如果我們想從一些文字的樣本中來生成語音的話,是需要非常大量的語音片段的數(shù)據(jù)庫,通過截取它們的一部分,并且再重新組裝到一起,來組成一個(gè)完整的句子。

如何用 TensorFlow 教機(jī)器人作曲?秘訣原來是這樣


生成音樂也是同樣的道理,但是它有一個(gè)很大的難點(diǎn):就是當(dāng)你把一些靜止的組件組合到一起的時(shí)候,生成聲音需要很自然,并且還要有情感,這一點(diǎn)是非常難的。

一種理想的方式是,我們可以把所有生成音樂所需要的信息存到模型的參數(shù)里面。也就是那篇論文里講的事情。

如何用 TensorFlow 教機(jī)器人作曲?秘訣原來是這樣


我們并不需要把輸出結(jié)果傳給信號(hào)處理算法來得到語音信號(hào),而是直接處理語音信號(hào)的波。

他們用的模型是 CNN。這個(gè)模型的每一個(gè)隱藏層中,每個(gè)擴(kuò)張因子,可以互聯(lián),并呈指數(shù)型的增長。每一步生成的樣本,都會(huì)被重新投入網(wǎng)絡(luò)中,并且用于產(chǎn)生下一步。

如何用 TensorFlow 教機(jī)器人作曲?秘訣原來是這樣


我們可以來看一下這個(gè)模型的圖。輸入的數(shù)據(jù),是一個(gè)單獨(dú)的節(jié)點(diǎn),它作為粗糙的音波,首先需要進(jìn)行一下預(yù)處理,以便于進(jìn)行下面的操作。

如何用 TensorFlow 教機(jī)器人作曲?秘訣原來是這樣


接著我們對(duì)它進(jìn)行編碼,來產(chǎn)生一個(gè) Tensor,這個(gè) Tensor 有一些 sample 和 channel。然后把它投入到 CNN 網(wǎng)絡(luò)的第一層中。這一層會(huì)產(chǎn)生 channel 的數(shù)量,為了進(jìn)行更簡單地處理。然后把所有輸出的結(jié)果組合在一起,并且增加它的維度。再把維度增加到原來的 channel 的數(shù)量。把這個(gè)結(jié)果投入到損失函數(shù)中,來衡量我們的模型訓(xùn)練的如何。最后,這個(gè)結(jié)果會(huì)被再次投入到網(wǎng)絡(luò)中,來生成下一個(gè)時(shí)間點(diǎn)所需要的音波數(shù)據(jù)。重復(fù)這個(gè)過程就可以生成更多的語音。這個(gè)網(wǎng)絡(luò)很大,在他們的 GPU 集群上需要花費(fèi)九十分鐘,并且僅僅只能生成一秒的音頻。

接下來我們會(huì)用一個(gè)更簡單的模型在 TensorFlow 上來實(shí)現(xiàn)一個(gè)音頻生成器。

  1.引入packages:

數(shù)據(jù)科學(xué)包 Numpy ,數(shù)據(jù)分析包 Pandas,tqdm 可以生成一個(gè)進(jìn)度條,顯示訓(xùn)練時(shí)的進(jìn)度。

import numpy as np

import pandas as pd

import msgpack

import glob

import tensorflow as tf

from tensorflow.python.ops import control_flow_ops

from tqdm import tqdm

import midi_manipulation

我們會(huì)用到一種神經(jīng)網(wǎng)絡(luò)的模型 RBM-Restricted Boltzmann Machine 作為生成模型。 
它是一個(gè)兩層網(wǎng)絡(luò):第一層是可見的,第二層是隱藏層。同一層的節(jié)點(diǎn)之間沒有聯(lián)系,不同層之間的節(jié)點(diǎn)相互連接。每一個(gè)節(jié)點(diǎn)都要決定它是否需要將已經(jīng)接收到的數(shù)據(jù)發(fā)送到下一層,而這個(gè)決定是隨機(jī)的。

  2.定義超參數(shù):

先定義需要模型生成的 note 的 range

如何用 TensorFlow 教機(jī)器人作曲?秘訣原來是這樣

lowest_note = midi_manipulation.lowerBound #the index of the lowest note on the piano roll

highest_note = midi_manipulation.upperBound #the index of the highest note on the piano roll

note_range = highest_note-lowest_note #the note range

接著需要定義 timestep ,可見層和隱藏層的大小。

num_timesteps  = 15 #This is the number of timesteps that we will create at a time

n_visible      = 2*note_range*num_timesteps #This is the size of the visible layer. 

n_hidden       = 50 #This is the size of the hidden layer

訓(xùn)練次數(shù),批量處理的大小,還有學(xué)習(xí)率。

num_epochs = 200 #The number of training epochs that we are going to run. For each epoch we go through the entire data set.
batch_size = 100 #The number of training examples that we are going to send through the RBM at a time.
lr = tf.constant(0.005, tf.float32) #The learning rate of our model

  3.定義變量:

x 是投入網(wǎng)絡(luò)的數(shù)據(jù) 
w 用來存儲(chǔ)權(quán)重矩陣,或者叫做兩層之間的關(guān)系 
此外還需要兩種 bias,一個(gè)是隱藏層的 bh,一個(gè)是可見層的 bv

x  = tf.placeholder(tf.float32, [None, n_visible], name="x") #The placeholder variable that holds our data

W  = tf.Variable(tf.random_normal([n_visible, n_hidden], 0.01), name="W") #The weight matrix that stores the edge weights

bh = tf.Variable(tf.zeros([1, n_hidden],  tf.float32, name="bh")) #The bias vector for the hidden layer

bv = tf.Variable(tf.zeros([1, n_visible],  tf.float32, name="bv")) #The bias vector for the visible layer

接著,用輔助方法 gibbs_sample 從輸入數(shù)據(jù) x 中建立樣本,以及隱藏層的樣本:

gibbs_sample 是一種可以從多重概率分布中提取樣本的算法。 

如何用 TensorFlow 教機(jī)器人作曲?秘訣原來是這樣

它可以生成一個(gè)統(tǒng)計(jì)模型,其中,每一個(gè)狀態(tài)都依賴于前一個(gè)狀態(tài),并且隨機(jī)地生成符合分布的樣本。

如何用 TensorFlow 教機(jī)器人作曲?秘訣原來是這樣

#The sample of x

x_sample = gibbs_sample(1) 

#The sample of the hidden nodes, starting from the visible state of x

h = sample(tf.sigmoid(tf.matmul(x, W) + bh)) 

#The sample of the hidden nodes, starting from the visible state of x_sample

h_sample = sample(tf.sigmoid(tf.matmul(x_sample, W) + bh)) 

  4.更新變量:

size_bt = tf.cast(tf.shape(x)[0], tf.float32)

W_adder  = tf.mul(lr/size_bt, tf.sub(tf.matmul(tf.transpose(x), h), tf.matmul(tf.transpose(x_sample), h_sample)))

bv_adder = tf.mul(lr/size_bt, tf.reduce_sum(tf.sub(x, x_sample), 0, True))

bh_adder = tf.mul(lr/size_bt, tf.reduce_sum(tf.sub(h, h_sample), 0, True))

#When we do sess.run(updt), TensorFlow will run all 3 update steps

updt = [W.assign_add(W_adder), bv.assign_add(bv_adder), bh.assign_add(bh_adder)]

  5.運(yùn)行 Graph 算法圖:

1.先初始化變量

with tf.Session() as sess:    

#First, we train the model
   #initialize the variables of the model
   init = tf.initialize_all_variables()
   sess.run(init)

首先需要 reshape 每首歌,以便于相應(yīng)的向量表示可以更好地被用于訓(xùn)練模型。

for epoch in tqdm(range(num_epochs)):

        for song in songs:

            #The songs are stored in a time x notes format. The size of each song is timesteps_in_song x 2*note_range

            #Here we reshape the songs so that each training example is a vector with num_timesteps x 2*note_range elements

            song = np.array(song)

            song = song[:np.floor(song.shape[0]/num_timesteps)*num_timesteps]

            song = np.reshape(song, [song.shape[0]/num_timesteps, song.shape[1]*num_timesteps])

2.接下來就來訓(xùn)練 RBM 模型,一次訓(xùn)練一個(gè)樣本

for i in range(1, len(song), batch_size):
tr_x = song[i:i+batch_size]
sess.run(updt, feed_dict={x: tr_x})

模型完全訓(xùn)練好后,就可以用來生成 music 了。

3.需要訓(xùn)練 Gibbs chain

其中的 visible nodes 先初始化為0,來生成一些樣本。 
然后把向量 reshape 成更好的格式來 playback。

sample = gibbs_sample(1).eval(session=sess, feed_dict={x: np.zeros((10, n_visible))})   

for i in range(sample.shape[0]):        

if not any(sample[i,:]):            

continue
       #Here we reshape the vector to be time x notes, and then save the vector as a midi file
       S = np.reshape(sample[i,:], (num_timesteps, 2*note_range))

4.最后,打印出生成的和弦

midi_manipulation.noteStateMatrixToMidi(S, "generated_chord_{}".format(i))1212

綜上,就是用 CNN 來參數(shù)化地生成音波, 
用 RBM 可以很容易地根據(jù)訓(xùn)練數(shù)據(jù)生成音頻樣本, 
Gibbs 算法可以基于概率分布幫我們得到訓(xùn)練樣本。 

如何用 TensorFlow 教機(jī)器人作曲?秘訣原來是這樣

最后送上 Siraj 的原始視頻和源代碼鏈接:

視頻:https://www.youtube.com/watch?v=ZE7qWXX05T0&t=278s

源代碼:https://github.com/llSourcell/Music_Generator_Demo/blob/master/rbm_chords.py 

TensorFlow & 神經(jīng)網(wǎng)絡(luò)算法高級(jí)應(yīng)用班” 要開課啦!

從初級(jí)到高級(jí),理論 + 實(shí)戰(zhàn),一站式深度了解 TensorFlow!

本課程面向深度學(xué)習(xí)開發(fā)者,講授如何利用 TensorFlow 解決圖像識(shí)別、文本分析等具體問題。課程跨度為 10 周,將從 TensorFlow 的原理與基礎(chǔ)實(shí)戰(zhàn)技巧開始,一步步教授學(xué)員如何在 TensorFlow 上搭建 CNN、自編碼、RNN、GAN 等模型,并最終掌握一整套基于 TensorFlow 做深度學(xué)習(xí)開發(fā)的專業(yè)技能。

兩名授課老師佟達(dá)、白發(fā)川身為 ThoughtWorks 的資深技術(shù)專家,具有豐富的大數(shù)據(jù)平臺(tái)搭建、深度學(xué)習(xí)系統(tǒng)開發(fā)項(xiàng)目經(jīng)驗(yàn)。

時(shí)間:每周二、四晚 20:00-21:00

開課時(shí)長:總學(xué)時(shí) 20 小時(shí),分 10 周完成,每周 2 次,每次 1 小時(shí)

線上授課地址:http://www.mooc.ai/

雷鋒網(wǎng)相關(guān)文章:

在玩圖像分類和圖像分割?來挑戰(zhàn)基于 TensorFlow 的圖像注解生成!

教你從零開始在 TensorFlow 上搭建 RNN(完整代碼)!

雷峰網(wǎng)版權(quán)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。

如何用 TensorFlow 教機(jī)器人作曲?秘訣原來是這樣

分享:
相關(guān)文章

編輯

聚焦數(shù)據(jù)科學(xué),連接 AI 開發(fā)者。更多精彩內(nèi)容,請(qǐng)?jiān)L問:yanxishe.com
當(dāng)月熱門文章
最新文章
請(qǐng)?zhí)顚懮暾?qǐng)人資料
姓名
電話
郵箱
微信號(hào)
作品鏈接
個(gè)人簡介
為了您的賬戶安全,請(qǐng)驗(yàn)證郵箱
您的郵箱還未驗(yàn)證,完成可獲20積分喲!
請(qǐng)驗(yàn)證您的郵箱
立即驗(yàn)證
完善賬號(hào)信息
您的賬號(hào)已經(jīng)綁定,現(xiàn)在您可以設(shè)置密碼以方便用郵箱登錄
立即設(shè)置 以后再說