het leren van hiërarchieën van tijdsschalen met diepe recurrente neurale netwerken Brecht Coghe
Promotor: prof. dr. ir. Benjamin Schrauwen Begeleiders: dr. ir. Michiel Hermans, Philémon Brakel Masterproef ingediend tot het behalen van de academische graad van Master of Science in Engineering Physics
Vakgroep Elektronica en Informatiesystemen Voorzitter: prof. dr. ir. Jan Van Campenhout Faculteit Ingenieurswetenschappen en Architectuur Academiejaar 2013-2014
het leren van hiërarchieën van tijdsschalen met diepe recurrente neurale netwerken Brecht Coghe
Promotor: prof. dr. ir. Benjamin Schrauwen Begeleiders: dr. ir. Michiel Hermans, Philémon Brakel Masterproef ingediend tot het behalen van de academische graad van Master of Science in Engineering Physics
Vakgroep Elektronica en Informatiesystemen Voorzitter: prof. dr. ir. Jan Van Campenhout Faculteit Ingenieurswetenschappen en Architectuur Academiejaar 2013-2014
Voorwoord
Bij het maken van deze thesis heb ik veel bijgeleerd over neurale netwerken en machinaal leren in het algemeen en is mijn interesse voor dit onderwerp sterk gegroeid. De thesis wordt ingediend om de Master in Physical Engineering te behalen. Bij dit werk werd ik ondersteund door de vakgroep ELIS - reservoir lab, UGENT. Bij deze wil ik graag hun medewerkers bedanken:
Dr. Ir. Michiel HERMANS voor het begeleiden bij de taken, de vele bijkomende uitleg en het helpen zoeken naar oplossingen voor problemen.
Prof. Dr. Ir. Benjamin SCHRAUWEN voor het promoten van deze thesis en voor het gebruik van de middelen van reservoir lab.
”De auteur geeft de toelating deze masterproef voor consultatie beschikbaar te stellen en delen van de masterproef te kopiren voor persoonlijk gebruik. Elk ander gebruik valt onder de beperkingen van het auteursrecht, in het bijzonder met betrekking tot de verplichting de bron uitdrukkelijk te vermelden bij het aanhalen van resultaten uit deze masterproef.”
Brecht Coghe, 11 juni 2014
Het leren van hi¨ erarchie¨ en van tijdsschalen met diepe recurrente neurale netwerken door Brecht COGHE Thesis ingediend tot het behalen van de academische graad van master in Physical Engineering Academiejaar 2013–2014 Promotor: Prof. Dr. Ir. B. SCHRAUWEN Thesisbegeleider: Dr. Ir. M. HERMANS Faculteit Ingenieurswetenschappen Universiteit Gent Vakgroep ELIS-reservoir lab
Samenvatting Een onderdeel van het gebied machinaal leren is neurale netwerken. Deze thesis onderzoekt in het bijzonder de combinatie van een diep en een recurrent neuraal netwerk als ’nieuwe’ architectuur. Aan de hand van twee taken worden de voordelen en nadelen van zo’n diep recurrent neuraal netwerk bekeken. De eerste taak situeert zich in de spraaktechnologie. Er wordt gebruik gemaakt van de TIMIT-dataset. De tweede taak werkt met symbolische muziek (MIDI) en gebruikt een eigen dataset.
Trefwoorden Deep Recurrent Neural Networks TIMIT MIDI
Learning temporal hierarchies with deep recurrent neural networks Brecht Coghe Supervisor(s): Dr. Michiel Hermans, Prof. Benjamin Schrauwen Abstract— In this article we explain Deep Recurrent Neural Networks (DRNNs) and how to train them. The DRNNs are a combination of the commonly used Recurrent Neural Networks and the Deep Neural networks. We hope to show that the deeper version of the Recurrent Neural Network can cope with more complex data and the different layers show a hierarchy in time, corresponding with the layers in a deep neural network who can learn a hierarchy in the data. To do this we use the TIMIT speech recognition dataset and a self-made music dataset in MIDI-format. Keywords— Deep recurrent neural networks, TIMIT, artificial music generation
output is calculated as: y = g(A h)
(2)
Here the output weights ai are compiled in one matrix A. The same goes for the activations of the different neurons, this vector is called h. The output-function g is chosen in respect to the task. A neural network is trained by changing its weights to produce an output y that is as close to the target t as possible.
I. I NTRODUCTION EURAL Networks are an important part of machine learning. Machine learning is the subject of letting a computer learn by itself from data. Some examples are Computer vision, speech recognition, brain-computer interfaces, sentiment analysis etc [1][2][3][4]. The object in machine learning is to generalise from the data, in other words, the trained program should be able to process unseen data. A Neural network is a composition of different artificial neurons. These neurons are a strong abstraction of the neurons in our brains. One can be seen at Figure 1. To learn from data, they use a supervised training method. They get input vectors x and the target outputs t to learn by example. If sufficient data is given the neural network is able to make a model for the task at hand.
N
Fig. 2. Single-layered Neural Network
Two variations to this single-layered NN are the Deep NN (Figure 3) and the recurrent NN. A Deep NN consists of different layers of neurons stacked onto each other. These layers are connected to each other with their own weight matrices Vi and one layer uses the activations of the preceding layer as inputs. This deep structure provides a more hierarchical structure and makes it possible to model more complex data. These deep networks have made an improvement possible in different applications, such as image processing, classification and speech recognition [5].
Fig. 1. Schematic presentation of an artificial neuron
An artificial neuron has an activation value h calculated as: h = f(
N X
vi xi )
(1)
i=1
Where the vi are the so called weights and the function f is an activation function. In what follows we use the tanh-function. The simplest Neural Network consists of one layer of hidden neurons as can be seen in Figure 2. The hidden layer of neurons produces an output in an analogue way as the neurons. The Master student applied physics, Ghent University (UGent), Gent, Belgium.
Fig. 3. Deep Neural Network
One problem with the Deep NN is to cope with sequential data. In a sequence there is a certain causality. The current data point depends on the ones coming before that. But it’s not always that
easy to see how long this dependency should be. Therefore, it is difficult to find the amount of data points one should use as input in the deep NN to make use of this causal dependency. A recurrent NN tackles this problem in a different way. In its architecture there is an implicit context as can be seen in Figure 4. Every timestep is made up of the same single-layered neural network and these are connected in time by the so-called Recurrent Weights W . These recurrent connections carry the history of all preceding timesteps. The activations on timestep t are now calculated as: h(t) = tanh(V x(t) + W h(t−1) )
weight matrices V , W and A in every timestep. These are averaged and are then used to upgrade the weight matrices.
(3)
and thus depend on the activation of the neural layer one step back in time.
Fig. 5. Schematic of BPTT: The error in red is propagated back through the network and back in time.
II. D EEP R ECURRENT NN S Fig. 4. Simplified schematic of a RNN. Every circle presents a complete layer. Blue are inputs, black are hidden neuron layers and green is an output layer.
To train a simple or deep neural network, we use gradient descent. With each iteration we want to change the weights in the direction of a decreasing cost-function. The cost-function E is a measure for the difference between the generated output y of the networks and the given targets t. The gradient of this function with respect to the weights gives us the direction in which to step to decrease it. The update equation thus becomes: W (t+1) ← W (t) − η ∇E(W (t) )
(4)
Where W stands for all the weight matrices and η is the learning speed. To calculate this gradient, we use the backpropagation algorithm. Briefly it can be explained as followed: We generate a graph from the schematic of the NNs. Every layer is a node and every weight matrix forms a connection between nodes. Then the error at the output is being calculated as y − t. This error can be propagated back through the network by multiplying it with the transposed weight matrix of that connection. In this way, an error can be calculated in every node. If two connections reach a node, these errors have to be added before propagating further back. Once all nodes have their errors calculated, the gradient of a weight matrix can be calculated as the outer product between the input of the connection and the error at the end of it. For a more formal derivation we refer to [6]. A recurrent network can be trained in a simular way. If we unfold it in time, we can see that the recurrent NN can be seen as a deep NN and thus we can use the Backpropagation Through Time (BPTT) algorithm here which is mainly the same as before. Note that here the error should also be backpropagated through the recurrent connections. BPTT is schematicly depicted in Figure 5. In this way we calculate a gradient for the
Even though the Recurrent NN made some nice improvements on some tasks, it still has some shortcomings. First of all, in one timestep, the input goes through only one layer to reach the output. Some data will thus be to complex to get a good model off, as one layer won’t be able to cope with this data. A second problem is that a hierarchy isn’t explicitly inherent in the network architecture. Some tasks will, though, require a temporal hierarchy to be dealt with. These problems make it clear to us that we need to make the recurrent NN deeper. To do that, we stack several recurrent layers onto each other as in Figure 6 . By doing this, we make the network deeper in space. There are now more layers between the input and the output.
Fig. 6. Schematic of a deep recurrent network with three layers.
The shortcomings (and solutions for them) of a Recurrent NN have already been proposed by some people. One way to get a higher context is proposed in [7]. They combine a recurrent NN with LSTM or long-short term memory[8]. These are special memory blocks who can be trained to remember activations or data from far away in time. They are explicitly present in the architecture. They also stacked these LSTM-RNN layers on top of each other to make a LSTM-DRNN. These are then used
on the TIMIT speech recognition database to get state-of-the-art performances, but there is room for a better analysis of these networks. In [9], the same networks are used but now to generate handwriting and do text prediction. Again these networks perform very well. In [10] different architectures are proposed and tested to make a Recurrent NN deeper. Again, state-of-the-art performances are achieved, this time in music prediction and language modelling. In [11] the DRNNs we use are introduced and applied on a wikipedia dataset to do text prediction. With a far simpler training algorithm, it still achieves better performances than a so-called mRNN (up till then the best RNN performance on this task) that is trained with a second order training algorithm. Furthermore an analysis has been carried out to look at the functionality of the different layers. One can see that closing brackets (which happens on a different time scale than the usual text prediction), is accounted for by the highest layer in the network. Which is a promising result. The objective of this thesis would thus be to show that more layers equal a higher performance of the tasks and to analyse what caused this. Furthermore, we like to investigate if a higher layer also takes into account a longer timeframe. The calculations to generate an output with the DRNN are not much more complicated than with a normal RNN. To be clear, we’ll go over it briefly. With every time step, there are now different input, recurrent and output weight matrices as can be seen in Figure 7. The activations of the neuron layers can now be calculated as: (t+1)
hj
(t)
(t+1)
= f (Wj hj + Vj h(j−1) )
(5)
where the upper indices are time indices and the lower indices indicate the layers. The output is now generated by the sum of all connections to the output: X (t) y (t) = g( Aj hj ) (6) j
To train the network we can still use the stochastic gradient descent method with backpropagation through time. Notice that every neuron layer also gets an error propagated from the output directly, that should be added with the other errors. III. TIMIT
Fig. 7. A three-layered DRNN zoomed in on one timestep. Note that in every neural layer there should arrive connections too. As they would have the same weight matrices Wi they are not drawn.
weight matrices have to be searched here. To get the best metaparameters we sweep over a validation set of about 10% of the training data. This data isn’t used to train on first, but is used to see how well the DRNN with certain metaparameters performs on unseen data. The metaparametes that perform best on this validation set are chosen and the network is trained again on the complete training data (including the validation set). B. Results To compare DRNNs with a different amount of layers, we need to find an honest way to do it. Here, we have chosen to use the same amount of weight parameters (amount of all elements of the weight matrices). In the TIMIT application we used about 400000. This gives the following amount of neurons per layer for the different DRNNs: Amount of layers Neurons per layer
1 600
2 348
3 269
4 227
5 200
The first application we tested our DRNN on is the speech recognition dataset TIMIT [12]. The dataset contains about one million training samples which are 39-dimensional. The targets are phonemes and are manually labeled, also 39-dimensional. We now want our DRNN to classify our inputs. Therefore we calculate the output with the softmax as an output function. This gives us the probability of belonging to the k th class. We choose the class with the highest probability and compare it with the targets. The error rate we use is the ratio of the amount of missclassified phonemes on the total amount of classified phonemes.
As 1M datapoints is to many to calculate all at once, we use a batch containing 50 randomly chosen datapoints per iteration (this is stochastic gradient descent). We also need to use the same metaparameters for all the DRNNs so they don’t influence the results relative to each other: The learning speed is set at 0.1 and let it decrease to zero lineary over all iterations, we use 1.5M iterations, we choose the initialisation of the input weights randomly out of a normal distribution between −0.005 en 0.005, the recurrent weights are initialised in the same way, but now we take a normal distribution between -1 and 1 divided by the square root of the amount of neurons in the layers. The output weights are set to 0 to start the learning proces.
To train our DRNN we need to search the best metaparameters. They can influence the performance of the network. Learning speed, the amount of iterations and the initialisation of the
After training the networks, we save them and use them to find the performance on the given test set. The results are shown below:
A. Training
Amount of layers Testerror
1 0.285
2 0.281
3 0.279
4 0.276
5 0.275
We see that the results fit our objective. Indeed, the testerror goes down with an increasing amount of layers. To analyse what made this possible, we want to make an estimation of the context that each layer harnasses. To do this, we will again use a training method. But this time we use the trained DRNN with 5 layers and we train a desired input for a certain target. The same way as we used the backpropagation algorithm, we can calculate the error on the input and change the input accordingly. The error propagated through the network consists only of the error in the current timestep. As we want a desired input for the target at time t, the errors past in time don’t matter. We depicted this method in Figure 8. Note that to make a distinction between each layer, we propagate the error from the output only to the layer that is being analysed and not to all layers.
Fig. 9. Estimated context for different layers: We see a longer context in higher layers
the other layers. The analysis of the DRNNs with a different amount of layers, trained on the TIMIT-dataset meets thus our objectives.
Fig. 8. Training of the desired input follows three steps: 1) The error of the current timestep(node on the right) is being propagated back from the output to the analysed layer (here the second layer) (upper side). 2) The error is being propagated to the input (bottom side). 3) The input is being updated and the process repeats itself
Fig. 10. Targetphoneme 8. From left-upper side to right-bottom side: A real input, Desired input from layer 1 to 5.
IV. M USIC MODELLING A. training
We did this training proces with a learning speed of 0.1 and used 1000 iterations. The input is initialised at a random training data sequence. Ridge regression is used to be sure the data back in time that doesn’t matter, is set to zero after training. The resulting desired inputs are averaged over different targets and are normalised to 1. That way we can see the relative differences. Results of this estimation of the context is seen in Figure 9. The results are promising, we observe that the desired input is bigger back in time for the higher layers. This gives us the estimation that the context of this layer would also be bigger. And thus the analysis of this application is positive. As a last experiment we can have a look at the difference in desired input for each layer. The absolute values of the of the desired input are shown in figure 10. It’s also noteable in this Figure how the desired input of the fifth layer is larger back in time than in
The next application for our DRNNs is music modelling. Some nice results have already been obtained useing LSTMs in combination with RNN [13][14]. But we want the time dependency to be modelled implicitly in our network. Not with some special memory blocks. To do that, we made our own dataset consisting out of 106 classical piano works in MIDI-format. MIDI-format tells us when a note is on/off. So to produce a proper input for these files we made a time roster with 25 steps per second. When a note is on at the current timestep, it gets value 1 in its row. When a note is off, it gets value zero. We repeated this proces each 0.04 seconds. A smaller sample rate would mean a loss of information, as the spaces between the same note being on can be very small, and they would be modelled as one long note instead of two short ones. The targets here are the input of the next timestep. In this way
we want to make a predictive neural network. Some little adjustments have to be made to the training in comparison with the TIMIT application. First of all, several notes can be played at the same time. Therefore, the softmax output function isn’t appropiate anymore because it favors one class in particular. To tackle this problem, we use a sigmoid output function for every channel (=note). The output then is a probability for every note seperatly that it is on or off. The same goes for the performance rate. As error we use the cross-entropy error, this is a measure to see how well the generated output probabilities overlap with the targets. Again, by sweeping the metaparameters over a validation set (10 % of the training data), we gain the settings to train the DRNNs to best performance. The learning speed is chosen as 0.5 and decreases to zero over 20000 iterations. We initialised the recurrent weights the same way as we did in the TIMIT-application. The input weights are initialised by taking random numbers in [0.1;0.1] and the output weights by random numbers in [-2;2]. If we start by setting the output weights at 0, we notice that we get the same probability for all notes on all times which is far from the ideal training. As size of the batch on which is trained every iteration we chose 500 timesteps (20 seconds). This is rather large, but to learn rythm out of music we deem this necessary.
Fig. 11. Relative desired inputs
longest. But it’s only 30 timesteps, which is 1.2 seconds. That’s not nearly enough to predict rythms in music. If we compare the output of the network to the targets we see that the output lags behind one timestep to the targets(f.e. Figure 12). The network thus didn’t learn to predict rhythms but seems to copy the last timestep. We didn’t succeed in learning the DRNN the right context to make changes in notes on to off on the right times.
B. results To compare DRNNs with a different amount of layers we again, choose to take the same amount of total weight parameters. In this case there are about 167000. This corresponds to the following amount of neurons N per layer: Amount of layers Neurons per layer
1 300
2 180
3 138
4 115
5 100
In the following table, we see the validation cross-entropy errors. We again notice an improvement in performance. The error goes from 0.039 for a one-layered DRNN to 0.023 for a five-layered DRNN. A positive result which again shows us the power of these DRNNs. Note, though, that the forth and fifth layers don’t improve the error as much as the addition of the first two. Amount of layers Validation error
1 0.039
2 0.027
3 0.025
4 0.024
Fig. 12. Comparison between output probabilities and targets
5 0.023 Even by training the network with a different error, the results stay the same. The different error used here had to focus on the To analyse where this improvement comes from, we calculate changes between note on and off. In a timestep a note changed, the desired input of the different layers as before. As regression- the error was multiplied with [5,10,100]. These errors thus had parameter we chose 10−4 here. The result is seen in Figure 11. to be far more important in the training proces. For the first three layers we see the result we wanted. The higher the layer, the longer in time it goes back to predict the current time step. Strange results, though, are seen with the desired input of the forth and fifth layer. They seem to take every timestep in account in an equal way. If we investigate this further, we see that the desired input of the forth and fifth layer are nearly equal to zero in every timestep. In other words, it seems to be so that these layers are abundant. If we look at Figure 11 we see that in the third layer the context is
C. Generating music As a last experiment we tried to generate music with the trained network. By sampling from the output probabilities, we gain the input for the next step. After an initialisation of 1200 timesteps we let the network generate music of its own. An example is seen in Figure 13. We see that almost immediatly after the initialisation, the network goes out of control and generates chaos. There is no rhythm to be seen in it. If we zoom in to the timesteps around the end of the initialisation, we see that the first few timesteps, the network performs realistic, but afterwards it
can’t correct ‘mistakes’ which lead to the result later on.
ACKNOWLEDGMENTS The author of this abstract would like to thank Dr. M. Hermans for the aid in the research done and Prof. B. Schrauwen for promoting this thesis. Also I’d like to thank the University of Ghent, especially the reservoir lab for its time and devotion. R EFERENCES [1]
[2] Fig. 13. Generated music of the network. The initialisation stops at timestep 1200.
[3] [4]
[5] [6] [7]
[8] Fig. 14. Generated music zoomed in around the end of the initialisation. Initialisation stops at timestep 100.
V. C ONCLUSION Deep Recurrent Neural Networks are a powerful tool and an expansion of a common recurrent neural network. It seems to outperform them by looking in a more hierarchical way in time. This has been tested in two applications. In the TIMIT speech recognition application the results are promising: performances improve and each layer has a bigger context, or so it seems by the desired input of each layer. The more difficult music modelling task has less ideal results. Though, we have an improvement in performance and a rise in context from layer 1 to 3. It seems that the network is not doing what it is supposed to do and is just copying the last timestep. We can conclude from it that training DRNNs (and NN in general) still has limits in the tasks it can complete.
[9] [10] [11]
[12]
[13] [14]
Paul Viola and Michael Jones, “Rapid object detection using a boosted cascade of simple features,” in Computer Vision and Pattern Recognition, 2001. CVPR 2001. Proceedings of the 2001 IEEE Computer Society Conference on. IEEE, 2001, vol. 1, pp. I–511. Lawrence Rabiner, “A tutorial on hidden markov models and selected applications in speech recognition,” Proceedings of the IEEE, vol. 77, no. 2, pp. 257–286, 1989. Anirudh Vallabhaneni, Tao Wang, and Bin He, “Braincomputer interface,” in Neural Engineering, pp. 85–121. Springer, 2005. Bo Pang, Lillian Lee, and Shivakumar Vaithyanathan, “Thumbs up?: sentiment classification using machine learning techniques,” in Proceedings of the ACL-02 conference on Empirical methods in natural language processing-Volume 10. Association for Computational Linguistics, 2002, pp. 79–86. Yann LeCun and Yoshua Bengio, “Convolutional networks for images, speech, and time series,” The handbook of brain theory and neural networks, vol. 3361, 1995. Christopher M Bishop et al., Pattern recognition and machine learning, vol. 1, springer New York, 2006. Alex Graves, Abdel-rahman Mohamed, and Geoffrey Hinton, “Speech recognition with deep recurrent neural networks,” in Acoustics, Speech and Signal Processing (ICASSP), 2013 IEEE International Conference on. IEEE, 2013, pp. 6645–6649. Sepp Hochreiter and J¨urgen Schmidhuber, “Long short-term memory,” Neural computation, vol. 9, no. 8, pp. 1735–1780, 1997. Alex Graves, “Generating sequences with recurrent neural networks,” arXiv preprint arXiv:1308.0850, 2013. Razvan Pascanu, Caglar Gulcehre, Kyunghyun Cho, and Yoshua Bengio, “How to construct deep recurrent neural networks,” arXiv preprint arXiv:1312.6026, 2013. Michiel Hermans and Benjamin Schrauwen, “Training and analysing deep recurrent neural networks,” in Advances in Neural Information Processing Systems 26, C.J.C. Burges, L. Bottou, M. Welling, Z. Ghahramani, and K.Q. Weinberger, Eds., pp. 190–198. Curran Associates, Inc., 2013. John S Garofolo, Lori F Lamel, William M Fisher, Jonathon G Fiscus, and David S Pallett, “Darpa timit acoustic-phonetic continous speech corpus cd-rom. nist speech disc 1-1.1,” NASA STI/Recon Technical Report N, vol. 93, pp. 27403, 1993. Judy A Franklin, “Jazz melody generation from recurrent network learning of several human melodies.,” in FLAIRS Conference, 2005, pp. 57–62. Douglas Eck and J¨urgen Schmidhuber, “Learning the long-term structure of the blues,” in Artificial Neural NetworksICANN 2002, pp. 284–289. Springer, 2002.
INHOUDSOPGAVE
i
Inhoudsopgave 1 Inleiding
1
1.1
Machinaal leren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1
1.2
Neuronen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3
1.3
Neurale netwerken . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4
1.3.1
Types . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4
1.4
Diepe recurrente neurale netwerken . . . . . . . . . . . . . . . . . . . . . . . . . .
5
1.5
Verdere verloop thesis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
6
2 Neurale netwerken
7
2.1
Het artifici¨ele neuron en ´e´enlagig netwerk . . . . . . . . . . . . . . . . . . . . . .
7
2.2
Diepe neurale netwerken . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
10
2.3
Recurrente neurale netwerken . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
11
2.4
Het backpropagation algoritme . . . . . . . . . . . . . . . . . . . . . . . . . . . .
14
2.4.1
Gradient descent . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
14
2.4.2
Error backpropagation . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
15
2.4.3
Backpropagation bij Diepe Neurale Netwerken . . . . . . . . . . . . . . .
17
2.4.4
Backpropagation Through Time . . . . . . . . . . . . . . . . . . . . . . .
18
Training . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
21
2.5.1
Stochastic Gradient Descent . . . . . . . . . . . . . . . . . . . . . . . . . .
21
2.5.2
Validatieset . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
22
2.5.3
Initialisatie gewichten . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
23
2.5.4
Leersnelheid + aantal iteraties . . . . . . . . . . . . . . . . . . . . . . . .
24
Samengevat . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
25
2.5
2.6
INHOUDSOPGAVE
ii
3 Diepe Recurrente neurale netwerken
26
3.1
Tekortkomingen recurrente neurale netwerken . . . . . . . . . . . . . . . . . . . .
26
3.2
Concept en doel DRNN . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
27
3.3
Literatuur DRNN . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
27
3.4
Werking DRNN . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
29
4 Toepassing 1: TIMIT
31
4.1
training . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
31
4.2
Resultaten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
32
4.2.1
Hoe vergelijken? . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
32
4.2.2
Vergelijken prestatie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
33
4.2.3
Context . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
34
4.2.4
Vergelijken invoer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
38
Samengevat . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
40
4.3
5 Toepassing 2: Symbolische muziek
41
5.1
introductie
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
41
5.2
Prestatie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
43
5.3
Alternatieve leermethode . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
46
5.4
Voorspellen muziek . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
48
5.5
Samengevat . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
49
6 Conclusie
50
INLEIDING
1
Hoofdstuk 1
Inleiding 1.1
Machinaal leren
Machinaal leren, een tak van artifici¨ele intelligentie, is het concept om een computerprogramma/ architectuur te laten leren van data. Het gebruikt deze data om taken uit te voeren. Arthur Samuel gaf de definitie: “Field of study that gives computers the ability to learn without being explicitly programmed” [Samuel, 1962]. Tom M. Mitchell gaf dan weer de meer formele definitie: “A computer program is said to learn from experience E with respect to some class of tasks T and performance measure P, if its performance at tasks in T, as measured by P, improves with experience E”. [Mitchell, 1999] Machinaal leren is dus een vorm van artifi¨ele intelligentie. De meest voorkomende taken zijn regressie (het benaderen van een continue functie), classificatie en voorspellingen in een bepaalde sequentie. Sommige van deze technieken proberen een menselijke kant te geven aan computerprogramma’s en vele toepassingen maken van deze technieken gebruikt. Om toch een paar concretere voorbeelden te geven:
- Visuele dataverwerking met o.a. objectherkenning [Viola and Jones, 2001] - Spraak- en handschriftherkenning [Rabiner, 1989] - Brain-computer interfaces [Vallabhaneni et al., 2005] - Gevoelsanalyse (bv. herkennen van positieve/negatieve reviews) etc. [Pang et al., 2002]
Een belangrijk punt in machinaal leren is generalisatie. Generalisatie betekent dat na het leren van een model aan de hand van een trainingsdataset, het model ook de taak kan uitvoeren op
1.1 Machinaal leren
2
ongeziene data. De trainingsdataset zou dan uiteraard representatief moeten zijn voor zoveel mogelijk ongeziene data.
Een neuraal netwerk is een aan´e´enschakeling van artifici¨ele neuronen. Het is in staat om taken uit te voeren die behoren tot het vakgebied van machinaal leren. Laten we starten met een voorbeeld van wat zo’n neuraal netwerk doet. Handschriftherkenning is voor onze hersenen een eenvoudige taak. Niemand heeft het moeilijk met het herkennen van de cijfers 504192 in Figuur 1.1.
Figuur 1.1: handgeschreven cijfers De moeilijkheid bij visuele patroonherkenning ligt nu wanneer men probeert een programma te schrijven dat deze taak vervult. Terwijl wij het vanzelfsprekend vinden dat bijvoorbeeld een 9 een bolletje boven aan heeft met een staartje aan is dat onmogelijk te programmeren. Het blijkt snel dat er te veel variatie zit in verschillende handschriften om een zo goed als altijd werkend programma te cre¨eeren.
De oplossing voor dit probleem is nu machinaal leren. In plaats van expliciet te programmeren werkt het dus met voorbeelden. Met andere woorden gaat het dus de voorbeelden gebruiken om automatisch zelf regels voor handschriftherkenning uit de data te onttrekken. Hoe meer data er dus voor handen is, hoe beter de accuraatheid zal zijn. Daarvoor is een database opgemaakt: de MNIST-database [LeCun and Cortes, 1998]. Deze bestaat uit 60000 trainingsafbeeldingen en 10000 testafbeeldingen. Elk van deze afbeeldingen is een 28 × 28-pixel afbeelding van een handgeschreven cijfer. State-of-the-art foutmarges met neurale netwerken liggen onder 0.5%.
Figuur 1.2: Voorbeelden uit de MNIST-database voor handgeschreven cijfers
1.2 Neuronen
3
Figuur 1.3: Schematische voorstelling artificieel neuron
1.2
Neuronen
Het menselijk brein is een van de wonderbaarlijkste dingen op onze planeet. Het is erg ingewikkeld en een krachtig gereedschap. De werking ervan is nog lang niet volledig verklaard, maar de beginselen zijn al min or meer duidelijk. Het werkt met een constructie van neuronen in een gigantisch netwerk waarbij die neuronen met elkaar zijn verbonden. Electro-chemische signalen worden verzameld of verzonden van het ene naar het andere neutron over soms grote afstanden. Zo worden ‘boodschappen’ gestuurd. Elk van deze neuronen kan zo geactiveerd worden. In een neuron is de frequentie van het aantal activatie’s belangrijk om te kunnen werken. Des te meer stimulans het neuron krijgt van verbonden neuronen, des te meer het neuron geactiveerd zal worden. E´en van de meest voorkomende abstracties is wanneer we gebruik maken van een activatie h gedefinieerd als: h = f(
N X
wi x i )
(1.1)
i=1
Hierbij zijn de xi de stimulansen van de N neuronen die een invoer geven aan het betreffende neuron en de wi zijn de bijhorende gewichten die een relatieve sterkte tussen de verschillende invoeren tot stand kunnen brengen. De activatie is dan de functie een gewogen som van de invoerstimulansen. Deze functie stelt voor hoe rap een neuron gaat vuren. In een biologisch neuron zal vanaf een bepaalde drempelwaarde het neuron vuren. De functie f bij een artificieel neuron zal veelal de biologische functie benaderen, maar onder een makkelijkere wiskundige vorm. Voorbeelden zijn de sigmo¨ıde functie en de tangens-hyperbolicus functie.
1.3 Neurale netwerken
1.3 1.3.1
4
Neurale netwerken Types
Onder de term neurale netwerken verstaat men een breed gamma aan architecturen. Hieronder worden de meest voorkomende en meest relevante voor deze thesis overlopen:
E´en verborgen laag: Dit netwerk bestaat uit ´e´en laag neuronen. Hieraan is een invoer verbonden en een uitvoer zoals te zien is op Figuur 1.4. Dit ´e´en-lagig netwerk is het eenvoudigste neurale netwerk. Met de invoer wordt in ieder neuron op een andere manier een gewogen som gemaakt, waarna de activatiefunctie f erop inwerkt en ieder neuron een activatiewaarde krijgt. We kunnen de invoergewichten schrijven als een matrix V . Daarna wordt met de activatiewaarden van de neuronen opnieuw een gewogen som genomen om de uitvoer o te bekomen. Schrijven we de uitvoergewichten als de matrix A dan bekomen we:
o = g(A f (V x))
(1.2)
Waarbij g een outputfunctie is die meestal lineair wordt gekozen. Merk nog op dat de activatiefunctie f niet-lineair moet zijn. Een lineaire combinatie van een lineaire combinatie is immers terug een lineaire combinatie en zou deze functie overbodig maken. Het trainen van het netwerk bestaat er dan in om de correcte gewichtenmatrices V en A te vinden om een zo goed mogelijke uitvoer te bekomen.
1.4 Diepe recurrente neurale netwerken
5
Figuur 1.4: Links zien we een NN met ´e´en verborgen laag, rechts zien we een diepe architectuur met meerdere lagen. Deze figuur is overgenomen van de doctoraatsthesis van M. Hermans met toestemming.
Diepere structuren: Een diepere structuur is nu het op elkaar bouwen van deze tussenliggende verborgen lagen neuronen. We zien dit rechts in Figuur 1.4. Deze structuur maakt het mogelijk om complexere data en taken te verwerken aangezien de hi¨erarchische structuur van het netwerk makkelijker een hi¨erarchische structuur in data kan modelleren. Deze architectuur is vaak moeilijker te trainen, maar daar komen we in volgend hoofdstuk op terug. Recurrente netwerken: Deze architectuur is centraal in deze thesis. Bij sequenti¨ele data is het zo dat een context vaak belangrijk is. Een recurrent neuraal netwerk is een ´e´enlagig netwerk ’in de tijd’ waarbij de activatiewaarde van het vorige neuron in de tijd gebruikt wordt als extra invoer. Dit zorgt voor een context-afhankelijkheid. We komen later uitgebreid terug op dit recurrente netwerk.
1.4
Diepe recurrente neurale netwerken
In deze thesis onderzoeken we de mogelijkheden van een speciale architectuur van zo’n recurrent neuraal netwerk, namelijk het diepe recurrent neuraal netwerk(of DRNN). De combinatie van een diepe architectuur met een recurrent netwerk zou zo mogelijks extra complexiteit kunnen modelleren in de tijd, analoog als de uitbreiding van een ´e´enlagig neuraal netwerk naar een diep
1.5 Verdere verloop thesis
6
neuraal netwerk. Specifieker worden van twee taken (spraaktechnologie en Symbolische muziek modelleren) gebruik gemaakt om dit onderzoek te doen.
1.5
Verdere verloop thesis
In het volgende hoofdstuk geven we een gedetailleerder overzicht van neurale netwerken in het algemeen. Zowel de types, wiskundige werking als de trainingsalgoritme’s komen in dit hoofdstuk aan bod. Net als de problemen die dat met zich kan meebrengen. Het derde hoofdstuk gaat dan specifiek in op het Diepe Recurrente Neurale Netwerk waarbij eerst wordt uitgelegd hoe een DRNN in elkaar zit, daarna overlopen we kort resultaten uit de literatuur. De twee laatste hoofdstukken handelen dan over het uitgevoerde onderzoek met deze DRNN’s. Het vierde hoofdstuk gaat over de spraakherkenningstaak die wordt uitgevoerd op de TIMITdataset. Het vijfde hoofdstuk over de modellering van symbolische muziek a.d.h.v. een eigen dataset. Om dan uiteindelijk tot een conclusie te komen.
NEURALE NETWERKEN
7
Hoofdstuk 2
Neurale netwerken 2.1
Het artifici¨ ele neuron en ´ e´ enlagig netwerk
In hoofdstuk 1 hebben we de werking van een artificieel neutron al besproken en hebben we kort vermeld hoe dit een ´e´enlagig netwerk vormt. Om dit iets duidelijker te maken gaan we de werking van dit ´e´enlagig netwerk illustreren met een voorbeeld. In hoofdstuk 1 vermeldden we de MNIST-dataset voor handschriftherkenning bij cijfers. Deze taak is eenvoudig om de werking uit te leggen. Het begint met de invoervector x. Zoals je kan zien is die samengesteld met de invoeren xj . Voor de MNIST-afbeeldingen zou x een 785-dimensionale (28 × 28 + 1) input worden. Met elke xj voor j ≤ 784 de grijswaarde van 1 pixel en een bias x785 die standaard op 1 wordt gezet. Op het nut van deze bias komen we verder terug.
Figuur 2.1: E´en-lagig neuraal netwerk horende bij MNIST handschriftherkenning
2.1 Het artifici¨ele neuron en ´e´enlagig netwerk
8
Om nu van deze invoer gebruik te maken gaan we aan iedere xj een gewicht meegeven, namelijk wj en dat voor ieder neuron in het ´e´enlagig netwerk. De gewichten zijn uiteraard verschillend bij verschillende neuronen. De gewichten gaan bepalen hoe zeer een bepaalde input (of pixel in het geval van MNIST) belangrijk is in de classificatie die het netwerk uitvoert. Het is logisch dat een pixel in de rechterbovenhoek minder belangrijk zal zijn dan een pixel in het midden. Het zijn tevens ook diezelfde gewichten die in het leerproces telkens aangepast worden. n P In het k-de neuron wordt de lineaire combinatie xj wjk gemaakt. Na de activatiefunctie f te j=1
laten inwerken, bekomen we de activatie hk voor dit neuron. In matrixvorm wordt dit dan voor
alle neuronen h = f (W x) waarbij de activatiewaarden hk in de vector h en de gewichten voor ieder neuron gebundeld worden in de matrix W . Om nu een uitvoer te bekomen herhalen we ongeveer de vorige stap. We vermenigvuldigen nu met de uitvoergewichtenmatrix A en activeren met een outputfunctie g. De uitvoer o wordt dan: o = g(A f (W x)). In bijvoorbeeld classificatie is het nodig om een probabiliteit als uitvoer te verkrijgen. Nul staat dan voor ‘is geen onderdeel van de klasse’ en ´e´en staat dan voor ‘is wel onderdeel van de klasse’. In dat opzicht is de activatiefunctie f belangrijk. In deze thesis gebruiken we daarvoor telkens de tanh-functie, mits deze overal voldoende glad is en mathematisch makkelijk te gebruiken is.
Figuur 2.2: De gladde tanh-functie als activatiefunctie
2.1 Het artifici¨ele neuron en ´e´enlagig netwerk
9
Met deze activatiefunctie is het nu makkelijk in te zien waarom een bias-invoer wordt gebruikt. Om dit te illustreren gebruiken we een 1-dimensionele invoer. De activatie wordt dan h = tanh(wx). Als we nu enkel de gewichten w kunnen aanpassen dan kunnen we de tanh-functie niet horizontaal opschuiven, zie Figuur 2.3 links. Als we nu een biasterm toevoegen dan bekomen we h = tanh(wx + wb ) waar wb voor het gewicht horende bij de bias-waarde staat. Dit zien we rechts op Figuur 2.3. De bias kan dus de treshold verplaatsen.
Figuur 2.3: Links: Tanh-functies met verschillende gewichten. Rechts: Tanh-functies met verschillende biaswaarde.
Merken we nog op dat in ons MNIST voorbeeld er meerdere uitvoerkanalen nodig zijn. Het geschreven cijfer kan 10 verschillende waarden aannemen en dus moeten er ook 10 uitvoerkanalen zijn. E´en neuron zou dus nooit voldoende zijn geweest en een eenvoudig ´e´enlagig netwerk biedt hier dus een oplossing. Ondanks de eenvoudige structuur van dit netwerk, bestaan toch vele toepassingen waarin het nut van dit neuraal netwerk bewezen kan worden. Een neuraal netwerk is dan ook een universele approximator, d.w.z. dat indien er genoeg neuronen beschikbaar zijn, het elke functie arbitrair dicht zal kunnen benaderen. Naast dit eenvoudige neurale netwerk bestaan er andere architecturen die elk hun voordelen hebben. We denken bv aan de eerder vermelde diepe neurale netwerken en de recurrente neurale netwerken. Aangezien we deze laatste twee combineren en deze architectuur in deze thesis willen onderzoeken, zullen ze in wat volgt uitgebreid aan bod komen.
2.2 Diepe neurale netwerken
2.2
10
Diepe neurale netwerken
Een diep neuraal netwerk (DNN) heeft in principe dezelfde werking als het ´e´en-lagig neuraal netwerk. Enkel zijn er nu meerdere lagen verborgen neuronen. Deze meerdere lagen zorgen ervoor dat er complexere niet-lineaire relaties gemodeleerd kunnen worden. Diepe neurale netwerken zorgen voor een betere prestatie in tal van gebieden waaronder beeldverwerking en classificatie, spraakherkenning en tijdssequenties [LeCun and Bengio, 1995]. Nemen we het voorbeeld bijvoorbeeld van visuele taken om beter te duiden hoe dit komt. Iedere extra laag brengt een verdere vorm van abstractie met zich mee. Zo zal een neuron in de eerste laag geactiveerd worden door een punt, een neuron in een volgende laag door een verticaal streepje en in een nog verdere laag door een lusje of een hoekje. Dit stemt overeen met de echte werking van de hersenen ( [Chen, 1982]). Maw, de capaciteit om complexere zaken te modelleren wordt groter en er ontstaat een hi¨erarchisch verband tussen de lagen.
Figuur 2.4: Schematische voorstelling van een diep neuraal netwerk
Ook wiskundig is er geen grote verandering als we gaan van een ´e´enlagig netwerk naar een diep neuraal netwerk. Ieder neuron heeft een activatie die functie is van alle inkomende signalen. Deze kunnen dus ofwel uit de invoer komen, ofwel uit een voorgaande laag neuronen. Noemen we de invoergewichtenmatrix tussen invoer en laag 1, V(0) en de gewichtenmatrix tussen laag i
2.3 Recurrente neurale netwerken
11
en i + 1 V(i) , dan hebben de neuronen in laag i de volgende activatie: h(i+1) = f (V(i) h(i) )
(2.1)
Analoog is dan na de laatste laag N de uitvoer:
o = g(A h(N ) )
(2.2)
Ook de hi¨erarchische structuur is te zien in het wiskundige gedeelte. De lagen zijn telkens afhankelijk van de vorige lagen en geven er zelf een nieuwe vorm aan. Op de training van dit netwerk komen we later uitgebreid terug. De gewichtenmatrices spelen hierbij een grote rol. Alvorens dat te doen behandelen we eerst de recurrente neurale netwerken.
2.3
Recurrente neurale netwerken
Om te kaderen waar het belang van recurrente neurale netwerken (RNN) net ligt, gaan we kijken naar hoe om te gaan met een discrete tijdsreeks. Stel dat we het volgende karakter in een tekst willen voorspellen bijvoorbeeld, dan is een bepaalde context erg belangrijk. Als we gebruik zouden maken van een diepe architectuur, dan moeten we als invoer een bepaald venster kiezen. Dat venster bepaalt hoeveel van de vorige karakters we als invoer meegeven, zeg maar welke context we meegeven aan het netwerk. De moeilijkheid ligt erin om te weten hoe lang de nodige context moet zijn die wordt meegegeven aan het netwerk. Daarnaast is in een tijdsreeks vaak een oorzaak-gevolg verband aanwezig. Ook daarvan maakt het DNN geen gebruik. Recurrente neurale netwerken behandelen het voorgaande probleem op een andere manier. De reden waarom een RNN context kan onthouden zit hem in zijn architectuur. Om deze uit te leggen vertrekken we terug van een ´e´en-lagig standaard neuraal netwerk als op Figuur 2.1. Het recurrente neurale netwerk heeft ´e´en zo’n netwerk per tijdsstap in de sequenti¨ele reeks, echter zijn de tussenliggende gewichten dezelfde voor ieder van die ´e´en-lagige netwerken. Met andere woorden kopi¨eren we het ene ´e´en-lagig netwerk telkens opnieuw in de tijd. Om nu een context te kunnen onthouden moeten deze subnetwerken met elkaar verbonden worden. Dit gebeurt door de tussenliggende lagen neuronen te verbinden met elkaar zoals in Figuur 2.5. We noemen de gewichten die met deze linken overeenstemmen de recurrente gewichten. Op die manier kunnen de activatiewaarden van de neuronen uit een vorige tijdsstap dus meegenomen worden naar toekomstige tijdsstappen om zo een ‘geheugen’ in de tijd te cre¨eeren. Om schematisch afbeeldingen te vereenvoudigen in wat volgt, zullen we elke laag neuronen vervangen door ´e´en knooppunt in
2.3 Recurrente neurale netwerken
12
onze graaf als in Figuur 2.6. Een recurrent netwerk kan dan eenvoudiger voorgesteld worden als Figuur 2.7.
Figuur 2.5: Een recurrent neuraal netwerk als verbonden ´e´en-lagige netwerken in de tijd
Figuur 2.6: Schematische vereenvoudiging van de grafische voorstelling RNN
Figuur 2.7: Vereenvoudigde voorstelling RNN
Om kort samen te vatten wordt dus ´e´en invoer per tijdsstap door een ´e´en-lagig netwerk gepropageerd. Er wordt een output (groen) gegenereerd en de activatiewaarden van de neuronen(zwart) worden met de recurrente gewichten naar de volgende tijdsstap overgebracht. We gebruiken de invoer- en uitvoergewichtenmatrices V en A uit de vorige paragrafen en voegen daar de
2.3 Recurrente neurale netwerken
13
recurrente gewichtenmatrix W aan toe. We krijgen dan in voorwaartse richting op tijdsstip t: h(t) = tanh(V x(t) + W h(t−1) )
(2.3)
o(t) = tanh(A h(t) )
(2.4)
en
Op deze manier ontstaat dus ‘fading memory’ [Boyd and Chua, 1985], de activaties zijn afhankelijk van de invoer en de activaties uit de vorige tijdsstap. Die laatste zijn dan weer afhankelijk van de tijdsstap ervoor enzovoort. Zo ontstaat mogelijks een oneindig lange context die steeds kleiner wordt in de tijd. In tegenstelling dus met het DNN die enkel een venster kon bepalen waarin context werd gebruikt. Naast tekstvoorspelling [Sutskever et al., 2011], zijn er tal van andere toepassingen zoals voorspelling van de beurs [Roman and Jameel, 1996], geautomatiseerde controlesystemen [Ku and Lee, 1995] en vele andere..
2.4 Het backpropagation algoritme
2.4 2.4.1
14
Het backpropagation algoritme Gradient descent
Om een neuraal netwerk te trainen (m.a.w. de prestatie van het netwerk te verbeteren), moeten we dus de gewichten zodanig kunnen bekomen dat ze een zo goed mogelijke set uitvoeren geven bij een gegeven set invoeren. Een zo goed mogelijke set uitvoeren is deze die het best overeenstemt met een meestal gegeven set targets. Hoe worden deze gewichten nu getraind? Om dat te kunnen doen hebben we een kostfunctie nodig. De kostfunctie E is een maat voor hoeveel de bekomen uitvoeren y afwijken van de vooropgestelde doelen (targets) t. Veelgebruikte kostfuncties zijn de kwadratische kostfunctie, de cross-entropy kostfunctie of de softmax kostfunctie. Deze laatste wordt de softmax kostfunctie genoemd omdat de activatie van de output dan de softmax-functie wordt: yk =
exp(ak ) m P exp(ak )
k=1
Deze softmax wordt gebruikt bij een multiclass classificatie taak en geeft een kans terug dat de input correspondeert met de klasse k. Het voordeel van de voorafgenoemde kostfuncties is dat ze allen een gelijkaardige vorm aannemen als we gaan afleiden naar de activaties van een neuron. We zullen later zien waarom dit zo belangrijk is.
1 E(y) = (y − t)2 2 m 1 X [tk ln(yk ) + (1 − tk ) ln(1 − yk )] E(y) = m
kwadratische : cross − entropy :
sof tmax :
(2.5) (2.6)
k=1
E(y) =
m X k=1
tk ln(yk )
(2.7)
2.4 Het backpropagation algoritme
15
De kostfuncties zijn nu afhankelijk van de gewichten want de uitvoer van het netwerk y is i . We krijgen dus E(y(W ). Om nu deze kostfunctie te minimaliseren met afhankelijk van alle wjk
behulp van de gewichten is de volgende stap om de gewichten aan te passen in dalende richting van E per iteratie t. Om dat te doen berekenen we de gradi¨ent van E ten opzichte van alle gewichtsparameters. We gebruiken dan de volgende formule om de gewichten aan te passen: W ← W − η ∇E(W )
(2.8)
Waarbij η de leersnelheid van het proces is. Dit proces heet gradient descent. De gradient van de kostfunctie naar de gewichten wordt berekend. De gewichten worden in kleine stapjes aangepast in deze richting (en dus in dalende richting van de kostfunctie) en het proces herhaalt zich tot we in een minimum terechtkomen van de kostfunctie. Nu rest nog de vraag hoe we de gradient berekenen. Dit is het eenvoudigst met het error backpropagation algoritme.
2.4.2
Error backpropagation
We starten met het bekijken van een eenvoudig netwerk waarbij de uitvoer yk een lineaire comP binatie is van een invoer x zodat: yk = wki xi . De kostfunctie E kunnen we schrijven als i P : E = 21 (yk − tk )2 waarbij de tk de targets zijn. De afgeleide van de kostfunctie naar een k
gewicht wji is nu:
∂E ∂wji
= (yj − tj )xi . Deze gradi¨ent kunnen we nu beschouwen als een product
van een fout (yj − tj ) aan de uitgaande kant van de relatie met de invoer van de relatie xi . In het geval er een niet-lineaire activatiefunctie g wordt gebruikt aan de uitvoer moet volgens de kettingregel enkel de afgeleide g 0 met de gradi¨ent vermenigvuldigd worden.
Als we nu gaan kijken naar een ´e´enlagig netwerk zullen we hetzelfde patroon zien verschijnen bij de berekening van de gradi¨ent van de kostfunctie E. In dit eenlagig netwerk zal de activatie hj van het neuron j in de verborgen laag de volgende activatie van een gewogen som van de invoeren x aannemen: hj = f (
X
vji xi )
(2.9)
i
Daarna wordt een uitvoer gegenereerd:
yk = g(ajk hj )
(2.10)
Dit deel is de voorwaartse propagatie die we voordien al hadden besproken bij het eenvoudige neuraal netwerk. Om dit netwerk te trainen moeten twee gewichtenmatrices aangepast worden.
2.4 Het backpropagation algoritme
16
De gewichtenmatrix A naar de uitvoer en de invoergewichtenmatrix V. De berekening van de gradi¨ent naar de uitvoergewichtenmatrix A is compleet analoog als in het voorvermelde eenvoudige voorbeeldje. We vervangen enkel de invoeren uit het eenvoudige voorbeeldje door de activatiewaarden h uit de tussenliggende laag neuronen. We krijgen dus: ∂En = (ynj − tnj ) hni ∂aji
(2.11)
Voor de invoergewichtenmatrix V ligt het iets ingewikkelder. Bekijken we nu de afgeleide van En naar een gewicht vji . De kettingregel geeft ons: ∂En ∂En ∂hj = ∂vji ∂hj ∂vji aangezien de uitvoer y berekend wordt als de gewogen som g(
(2.12) P
A hj ). We gebruiken een
j
vereenvoudigde notatie: δj =
∂En ∂hj
en berekenen
∂hj ∂vji
= xi f 0 uit formule (2.9) om te bekomen:
∂En = δ j xi f 0 ∂vji
(2.13)
Formule (2.13) zegt ons dat de gevraagde afgeleide bekomen wordt door de fout δj in de uitgaande kant van de relatie te vermenigvuldigen met de invoer van die relatie en wegens de kettingregel ook nog te vermenigvuldigen met de afgeleide van de activatiefunctie, namelijk f 0 . Bemerk dat dit dezelfde vorm heeft als de gradient naar de uitvoergewichten A. We moeten nu dus nog de fout δj =
∂En ∂hj
berekenen. Opnieuw gebruik makend van de kettingregel krijgen we: ∂En X ∂En ∂yk = ∂hj ∂yk ∂hj
(2.14)
k
De eerste term is dus de fout aan de uitvoer: (ynj − tnj ). De tweede term kan berekend worden uit (2.10):
∂yk ∂hj
= akj g 0 . Merk op dat in deze terugpropagatie, de indices k en j voor de
uitvoergewichten omgedraaid zijn en we dus in matrixnotatie enkel de uitvoergewichtenmatrix A moeten transponeren. Bovenstaande notatie’s zijn nogal omslachtig. Vandaar gaan we ze even herhalen in matrixvorm. We starten met de voorwaartse en al gekende propagatie. We berekenen de fout aan de uitvoer als δuitvoer = Y −T Waarbij de matrix T staat voor alle targets. De fout kan dan teruggepropageerd worden naar de verborgen neuronenlaag: δneuronenlaag = δuitvoer AT g 0 . Daarna kunnen op gelijkaardige manier de gradi¨enten naar de matrices A en V worden berekend als: ∂E = δuitvoer h g 0 ∂A ∂E = δneuronenlaag x f 0 ∂V
(2.15) (2.16)
2.4 Het backpropagation algoritme
2.4.3
17
Backpropagation bij Diepe Neurale Netwerken
We kunnen nu voorgaand algoritme makkelijk uitbreiden naar een meerlagige structuur. Dit is makkelijk in te zien als we ons neuraal netwerk omzetten naar een graaf. De uitvoerlaag, iedere tussenliggende neuronenlaag en de invoer zijn knooppunten in de graaf. Iedere gewichtenmatrix daartussen is een pijl tussen 2 knooppunten. Om nodeloos ingewikkelde berekeningen te vermijden verwijzen we voor een volledige uitwerking van het backpropagation algoritme bijvoorbeeld naar [Bishop et al., 2006] en gaan we schematisch de stappen (analoog aan het backpropagation algoritme in een ´e´enlagig neural netwerk) vermelden.
1. Propageer de invoer X voorwaarts doorheen het netwerk zoals we hebben gezien in sectie 2.2 om een uitvoer Y te bekomen. 2. Bereken de fout δuitvoer aan de uitvoer als Y − T . 3. Propageer de fouten achterwaarts doorheen het netwerk door ze te vermenigvuldigen met de getransponeerde gewichtenmatrices van de relatie en de afgeleide van de gebruikte activatiefunctie. Tel fouten op indien ze van verschillende knooppunten naar ´e´en knooppunt gaan. 4. Zodra elk knooppunt geassocieerd is met een fout, bereken dan de gradi¨enten van de gewichtenmatrices door het product te nemen van de fout aan de uitgaande kant van de relatie en de invoer van die relatie, opnieuw vermenigvuldigd met de afgeleide van de activatiefunctie. 5. Bereken de nieuwe gewichten met Formule (2.8). 6. Herhaal dit proces tot de optimale gewichtenmatrices zijn bereikt.
Dit is dus het backpropagation algoritme dat gebruikt kan worden in elk feed-forward netwerk en eenvoudig te implementeren is. Merk op dat als we nu ´e´en van de voorgaand vermelde kostfuncties willen gebruiken, er geen aanpassing is aan het algoritme. De afgeleide
∂En ∂hk
zal im-
mers een gelijkaardige vorm blijven aannemen. Dit geeft als gevolg dat diepe neurale netwerken kunnen gebruikt worden voor zowel regressie, binaire of multiclass classificatie problemen als voor andere toepassingen. Het error backpropagation algoritme is dus een krachtige tool om diepe neurale feed-forward netwerken te trainen en heeft op zichzelf een hele vooruitgang van het onderzoeksgebied in de hand gewerkt.
2.4 Het backpropagation algoritme
2.4.4
18
Backpropagation Through Time
Het trainen van het RNN is grotendeels gelijkaardig aan het error backpropagation algoritme. Dit aangepaste algoritme heet het ’backpropagation through time’ algoritme of kortweg BPTT [Werbos, 1990]. Het maakt opnieuw gebruik van de recursieve formule die we gezien hebben in het backpropagation algoritme. Het komt er op neer dat we het RNN ’ontplooien’ in de tijd en gaan bekijken als een diep neuraal netwerk in de tijd. Voor de aanpassing van de uitvoergewichten A kunnen we rechtstreeks de fout op de uitvoer berekenen en vermenigvuldigen met de activatiewaarden van de neuronen. Er verandert dus niets om de gewichten A te trainen in vergelijking met het gewone BP-algoritme. In het geval van de recurrente en invoergewichten is dit anders... We beginnen met op de laatste tijdsstap de fout op de uitvoer te berekenen en terug te propageren naar de laatste tussenliggende laag neuronen. Deze fout wordt dan teruggepropageeerd naar de laag tussenliggende neuronen uit de vorige tijdsstap, waar ook de fout van de uitvoer uit die tijdsstap terug wordt gepropageerd en erbij opgeteld alvorens een volgende tijdsstap terug te keren. Schematisch ziet dat er uit als in Figuur 2.8.
Figuur 2.8: Schematische voorstelling BPTT. De blauwe cirkels zijn invoer, de zwarte tussenliggende neuronenlagen en de groene zijn de uitvoerlagen. Wanneer deze rood gekleurd worden, zijn ze geassocieerd met een fout.
2.4 Het backpropagation algoritme
19
Slechts als de fout doorheen de hele sequentie is teruggepropageerd kunnen de gewichtenmatrices V en W worden aangepast op dezelfde manier als in het BP-algoritme. De gradi¨enten worden dan over alle tijdsstappen uitgemiddeld en daarmee worden dan de gewichtenmatrices aangepast.
Het gradient descent algoritme met BPTT dat gebruikt wordt bij de training van het RNN blijkt niet altijd stabiel en onmiddellijk naar een oplossing te convergeren. Er zijn enkele bijkomende problemen die het RNN met zich meebrengt. E´en daarvan zijn bifurcaties. Het kostlandschap kan erg ruw zijn. Dit zorgt voor dit bijkomende probleem. Een bifurcatie kan herkend worden aan een onstabiele fout en een plotse stijging ervan zoals in Figuur 2.9.
Figuur 2.9: fout tijdens het leerproces met een bifurcatie
De oorzaak hiervan is een erg grote gradi¨ent die de gewichtsaanpassing bepaalt. Door een discontinu¨ıteit in de kostfunctie zal een kleine gewichtsaanpassing de kostfunctie erg sterk verhogen. Deze verhoging zal dan bijgevolg ook de fout aan de uitvoer snel en sterk doen stijgen. Daardoor zal de nieuw berekende gradi¨ent dus veel hoger zijn dan in de vorige iteratie en de nieuwe gewichten zullen een veel te grote stap nemen en terechtkomen in een gebied ver van de optimale oplossing en dus in een onberekenbaar gebied. M.a.w. moet de training daar van nul opnieuw beginnen. Een heuristieke oplossing voor dit probleem bestaat erin de gradi¨ent voor de gewichtsaanpassing te normaliseren. Dit zorgt ervoor dat deze laatste niet kan ontploffen en dat het leerproces
2.4 Het backpropagation algoritme
20
stabieler verloopt. Een uitgebreidere behandeling van de rol van bifurcaties in het trainen van RNNs is te vinden in [Doya, 1993].
Figuur 2.10: stabilisatie fout na normalisatie gradi¨ent
Een ander bijkomend probleem bij de RNN heet het vanishing gradient probleem. Het komt erop neer dat in bepaalde tijdsreeksen, een uitvoer sterk afhankelijk kan zijn van een invoer die heel wat tijdsstappen terug ligt. Het is veelal zo dat wanneer een fout die terugpropageert in de tijd, sterk daalt en uiteindelijk verdwijnt. Daardoor zal de gradi¨ent wanneer die berekend wordt aan de tijdsstap van die vroegere invoer al te klein zijn om nog een effici¨ente aanpassing in gewichten te kunnen bekomen. Oplossingen hiervoor zijn bijvoorbeeld Long-Short Term Memory (geheugenblokken expliciet aanwezig in de architectuur) [Hochreiter and Schmidhuber, 1997] of een uitgebreidere trainingsmethode zoals de Hessian free trainingsmethode [Martens, 2010].
Als illustratie van de werking van zo’n RNN bekijken we tekstvoorspelling. De te volbrengen taak bestaat erin om het volgend teken te voorspellen in een tekst, op die manier zelf een stuk tekst te cre¨eeren. Om het netwerk te trainen gebruiken we het verhaal van roodkapje. Een invoer per tijdsstap wordt dan ´e´en teken. Vertaald in een 29-dimensionale input (26 letters uit het alfabet + spatie, punt en komma). Bij de letter A wordt dat dan bijvoorbeeld [1...0 0 0 ]T . De gewenste uitvoer of targets per tijdsstap zijn dan van dezelfde 29-dimensionale vorm en zijn het volgende teken in de sequentie. ‘De wolf ’ wordt zo opgesplitst in de tijd als de invoersequentie [D E ‘spatie’ W O L F] en de bijbehorende targets zijn [E ‘spatie’ W O L F ‘spatie’].
2.5 Training
21
Figuur 2.11: Inputs en gewenste outputs bij roodkapje:illustratie Met de 2898 tekens en dus 2898 tijdsstappen waaruit het sprookje bestaat wordt het netwerk dan getraind zoals hiervoor beschreven met gradient descent en het BPTT. Gebruiken we dan de getrainde gewichtenmatrices V ,W en A om tekst te voorspellen na een initialisatie: ‘de wolf peuzelde roodkapje op. de jager (die ’ krijgen we bijvoorbeeld: ‘ snielons wolf. en grote stenorman het ploemen was in het grotemen beslook vajl bestmenen op hij maar erien en bijloi dal ni roodkapje was die bij de oma nakr waa’. Met een heel simpel RNN met 50 neuronen zien we dat er al herkenbare woorden of woordgroepen worden geproduceerd. De initialisatie wordt gebruikt zodat een andere context wordt meegegeven dan in het sprookje zelf voorkomt, om te voorkomen dat er letterlijke stukken tekst uit het sprookje worden gekopie¨erd.
2.5
Training
Bij het gebruik van BP of BPTT duiken nog verschillende andere problemen op tijdens het trainen. We overlopen in wat volgt kort nog enkele van de belangrijkste waar in ieder trainingsproces rekening mee moet gehouden worden.
2.5.1
Stochastic Gradient Descent
Bij het gebruik van gradient descent ontstaat een groot probleem wanneer de dataset te groot wordt. Om de kostfunctie te berekenen voor alle datapunten loopt de computationele kost erg sterk op. Het wordt ondoenbaar om met die hele dataset het gradient descent algoritme uit te voeren. Om dit te verhelpen gaan we uit een reeks invoer een batch ‘knippen’. Die batch bestaat uit een kleiner aantal elkaar opvolgende datapunten en we gaan daarmee het algoritme uitvoeren.
2.5 Training
22
Deze variatie van het gradient descent algoritme wordt stochastic gradient descent genoemd. Als ervoor wordt gezorgd dat de batch toch voldoende relevante context met zich meedraagt (d.w.z. groot genoeg is), zal het uiteindelijke model voor de taak dezelfde eigenschappen hebben in vergelijk met het gewone gradient descent algoritme. De batchgrootte wordt dus een hyperparameter van de training en er moet een afweging komen tussen prestatie/precizie van het model en rekentijd afhankelijk van de batchgrootte. Om ervoor te zorgen dat toch de hele dataset gebruikt wordt om te leren en dus om een optimaal model te verkrijgen voor de uitgevoerde taak, gaan we per iteratie een andere batch willekeurig gaan kiezen.
2.5.2
Validatieset
Hoe kunnen we nu de geschikte batchgrootte vinden bij een taak? We kunnen de prestatie vergelijken na een training, maar het leerproces is erg afhankelijk van verschillende parameters. Zowel de leersnelheid, het aantal iteraties als de initialisatie-gewichten hebben een grote invloed op de uiteindelijke prestatie van het netwerk. Om deze hyperparameters te optimaliseren maken we gebruik van een trainings- en validatieset. Om die te bekomen gaan we een deel van de trainingsdata nemen om te valideren en dus niet om te leren. We laten het leerproces starten en berekenen dan om de zoveel iteraties de prestatie op de validatieset. Door verschillende parameterwaarden te gebruiken kunnen we de beste parameters vinden om dan het definitieve leerproces te starten op de gehele trainingsdata (dus ook met validatieset.) Om dan uiteindelijk met de beste parameters het netwerk te testen op de testset. Het gebruik van een validatie-set voorkomt ook overfitting.
Overfitting is het fenomeen waarbij het netwerk de data zou ‘van buiten’ leren in plaats van een onderliggend model te gaan zoeken (Dit laatste wordt generalisatie genoemd). Bij overfitting zou het resultaat op de trainingsset erg goed zijn, maar dan zal bij de ongeziene validatieset de prestatie veel kleiner zijn. Door het controleren met een validatieset gaan we dus zien wanneer het netwerk start met overfitten en wanneer het leerproces beter gestopt kan worden. Een voorbeeld van het verloop van een trainings- en validatiefout zien we in Figuur 2.12. Als validatieset gebruiken we in deze thesis 10% van de gegeven trainingsdata.
Door verschillende hyperparameters te sweepen, d.w.z. verschillende waarden gebruiken en
2.5 Training
23
diegene zoeken die de laagste validatiefout geven, gaan we het netwerk dus optimaliseren.
Figuur 2.12: Trainings-(onderste) en validatiefout (bovenste) van een overgefit netwerk
2.5.3
Initialisatie gewichten
Het leerproces start met de initialisatie van de gewichten. Er wordt in het algoritme echter niets gezegd over waar het startpunt van de gewichten moet liggen. Hoe verder van het optimale minimum van de kostfunctie er gestart wordt, hoe langer het leerproces zal duren en hoe meer kans om vast te raken in een lokaal minimum onderweg. Om de grootteorde van de initialisatiegewichten te kunnen be¨ınvloeden voeren we factor in. Deze factor wordt dan elementsgewijs vermeningvuldigd met een matrix willekeurige getallen uit een normaalverdeling met gemiddelde 0 en variantie 1. Voor de recurrente gewichtenmatrix W is een vuistregel om de inverse van de vierkantswortel van het aantal gebruikte neuronen per laag te nemen als factor. Deze keuze zorgt steeds voor een goed resultaat. Voor de uitvoergewichts- en invoergewichtsfactor is het bepalen van een optimale factor minder eenvoudig. Om de invoergewichtsfactor te kiezen kijken we het best naar de activatiewaarden van de neuronen uit de eerste laag. Deze worden berekend als h1 = tanh( .. + V1 ∗ x). Als we nu naar deze waarden gaan kijken, willen we voorkomen dat de tanh gesatureerd is geraakt, d.w.z. dat alle waarden -1 of 1 zijn. Het liefst willen we dat de waarden vooral tussen -1 en 1 liggen en normaler verdeeld zijn. Het opvolgen van een histogram zoals in Figuur 2.13 is dus een goeie manier om de invoerfactor te bepalen. Er rest nog de uitvoerfactor te bepalen. In deze thesis is over de uitvoerfactor gesweept, m.a.w. verschillende factoren zijn gebruikt en diegene die het
2.5 Training
24
beste resultaat geeft op de validatieset (zie vorige sectie), werd gekozen.
Figuur 2.13: Voorbeeld histogram van activatiewaarden eerste laag neuronen. We zien dat de activatiewaarden goed verdeeld zijn tussen -1 en 1.
2.5.4
Leersnelheid + aantal iteraties
Bij iedere aanpassing van de gewichten wordt de gradi¨ent vermenigvuldigd met de leersnelheid η (zie Formule 2.8). Een andere leersnelheid zal de grootte van de stapjes in het gradient descent algoritme veranderen en kan ook de prestatie van het neuraal netwerk veranderen. Daarom is het nodig ook over deze parameter te sweepen. Naast een constante leersnelheid, kan men er ook voor kiezen om deze te laten afnemen per iteratie. Op die manier worden steeds kleinere stapjes richting het optimale minimum gezet en kan het dus preciezer benaderd worden. De leersnelheid η kunnen we op twee manieren laten afnemen: lineair en exponentieel. Door telkens te vermenigvuldigen met een factor of met een contant getal af te trekken. In ons geval hebben we gekozen om lineair te laten dalen naar 0 als: η0 = η −
η aantal iteraties
(2.17)
Het aantal iteraties is belangrijk om overfitting te voorkomen zoals hiervoor uitgelegd. Een goeie combinatie van leersnelheid en aantal iteraties wordt dus gekozen aan de hand van de geleverde prestatie op de validatieset.
2.6 Samengevat
2.6
25
Samengevat
Neurale netwerken en uitbreidingen als diepe neurale netwerken en recurrente neurale netwerken zijn krachtige concepten om taken op te lossen die expliciet moeilijk te programmeren zijn en die lijken buiten de beschouwing van computerprogramma’s te vallen. De verschillende types hebben elk hun eigen voordelen. Diepe neurale netwerken hebben een hoger vermogen complexere data te ontleden en gebruiken. Recurrente netwerken tenslotte hebben dan weer het vermogen om een ‘oneindinge’ context te onthouden en blinken uit in sequenti¨ele data. Daarnaast zijn ze ook relatief eenvoudig te trainen met gradient descent en het backpropagation algoritme waardoor hun gebruik enkel maar bevorderd kan worden. Naast de gebruikte algoritme’s moet nog rekening gehouden worden met tal van andere problemen tijdens de training.
DIEPE RECURRENTE NEURALE NETWERKEN
26
Hoofdstuk 3
Diepe Recurrente neurale netwerken Een recente architectuur, een diep recurrent neuraal netwerk, probeert de voordelen van een diepe architectuur te combineren met die van een recurrent neuraal netwerk. De reden waarom we dit willen onderzoeken, is om tegemoet te komen aan de tekortkomingen die een recurrent netwerk met zich meebrengt. We zullen deze eerst kort bespreken waarna we in meer detail de diepe recurrente neurale netwerken (DRNN’s) zullen bespreken en kort enkele recente artikelen zullen bespreken die over deze DRNN’s gepubliceerd zijn geweest.
3.1
Tekortkomingen recurrente neurale netwerken
De recurrente netwerken besproking in vorig hoofdstuk hebben een grote vooruitgang geboekt in hun gebied. Prestaties op taken werden verbeterd en bijhorende trainingsalgoritme’s werden bedacht. Toch hebben ze nog enkele tekortkomingen. In de eerste plaats schuilt er achter bepaalde invoer een hoge complexiteit. Aangezien een recurrent netwerk binnen ´e´en tijdsstap slechts door ´e´en neuronenlaag gaat, mist het RNN het vermogen om de complexiteit van die data te verwerken. Vandaar dat we een grotere diepgang in het netwerk willen krijgen. Die zou volgens ons een oplossing bieden voor bovenstaand probleem. Daarnaast is het ook zo dat data een hi¨erarchisch verband kan hebben op verschillende tijdsschalen. Met deze assumptie wordt niet expliciet rekening gehouden in de architectuur van het RNN. Naar analogie met de uitbreiding van een eenvoudig neuraal netwerk naar een diep netwerk willen we rekening houden met de hi¨erarchi¨en in de tijd.
3.2 Concept en doel DRNN
3.2
27
Concept en doel DRNN
Om nu de diepgang in de recurrente neurale netwerken te verkrijgen, gaan we verschillende recurrente neuronenlagen uit het normale RNN op elkaar stapelen. De activatie van de ene recurrente laag is dan de invoer voor de volgende. Zo verkrijgen we een diepte in zowel tijd (door de recurrente gewichten) als in ruimte (door de verschillende lagen op elkaar te stapelen). Zo zijn er verschillende niet-lineariteiten voor de invoer de uitvoer bereikt en bestaat de mogelijkheid dus dat complexere verbanden gemodelleerd worden. Op Figuur 3.1 zien we hoe dit schematisch in elkaar zit.
Figuur 3.1: Een drie-lagig diep recurrent neuraal netwerk In deze thesis gaan we uitgebreid onderzoeken welke toegevoegde waarde de extra lagen met zich meebrengen. Zowel qua prestatie als qua context. De bedoeling is om aan te tonen dat een extra laag zou instaan voor een langere meegenomen voorgeschiedenis. Op die manier zou dus een betere modellering kunnen ontstaan voor bepaalde taken. Voor we de gedetailleerde werking van deze DRNN’s in detail gaan bespreken, bekijken we enkele recente artikelen die ook een uitbreiding van het RNN beschouwen.
3.3
Literatuur DRNN
Het fading gradient probleem van een RNN met een enkelvoudige recurrente neuronenlaag bespraken we eerder. Een voorgestelde oplossing voor dit probleem heet LSTM of long-short term memory [Hochreiter and Schmidhuber, 1997]. Dit speciale type neuraal netwerk maakt gebruik
3.3 Literatuur DRNN
28
van geheugenblokken om vele tijdsstappen terug te kunnen gaan kijken. Het netwerk leert dan zelf hoe het die geheugenblokken gebruikt maar ze zorgen voor een rechtsstreekse verbinding in plaats van de context door iedere recurrente stap mee te nemen. Deze blokken zijn expliciet in de architectuur aanwezig. [Graves et al., 2013] combineert in zijn artikel deze LSTM-blokken met een meerlagig recurrent netwerk en verschillende trainingsmanieren. De nadruk in dit artikel ligt vooral in de prestatie op de spraakherkenningsdataset TIMIT en niet in de precieze functionaliteit of analyse van hun resultaten. Diezelfde [Graves, 2013] heeft dan dezelfde architectuur gebruikt om handschrift te voorspellen en uiteindelijk te genereren. Ook op tekstvoorspelling aan de hand van een wikipedia-dataset heeft hij de structuur getest. De resultaten werden zeer positief bevonden en het netwerk kon zelfs handschriften leesbaarder maken met de juiste instellingen. Opnieuw lag de focus op prestatie. [Pascanu et al., 2013] bekeek het probleem dan weer iets theoretischer. Er werden verschillende manieren voorgesteld om een RNN dieper te maken. Het voorvermelde DRNN die in deze thesis wordt onderzocht is er daar ´e´en van. Daarnaast stelt hij ook voor om tussen de recurrente neuronenlagen in de tijd een extra diepte te cre¨eeren. Beide architecturen werden getest op muziekvoorspelling en taalmodellering en bereikten state-of-the-art resultaten. Het dieper maken van een RNN heeft dus al verschillende veelbelovende resultaten geboekt. In [Hermans and Schrauwen, 2013] wordt het DRNN gebruikt die ook in deze thesis onderzocht wordt. Na de introductie ervan, wordt ze toegepast op tekstvoorspelling op een wikipediadataset. Met een simpele trainingsmanier worden toch betere resultaten geboekt dan met een ingewikkeld RNN, namelijk het MRNN [Sutskever et al., 2011]. Dit laatste werd getraind met een geavanceerdere trainingstechniek: Hessian-Free training [Martens, 2010]. Daarnaast wordt ook een analyse van de resultaten en het nut van de extra lagen gemaakt. Het lijkt zo te zijn dat de hoogste laag van het DRNN instaat voor de abstractere concepten en lagere lagen voor de minder abstracte. Ook op lange termijn boekt het DRNN goeie resultaten. Zo wordt er gekeken naar het openen en sluiten van haakjes. Terwijl er een lange woordreeks tussen het openen en sluiten van haakjes kan staan, slaagt het netwerk er toch in om daar rekening mee te houden. Dit blijkt vooral door de hoogste laag te zijn. Daaruit kunnen we besluiten dat extra lagen, extra tijdsschalen kunnen modelleren. Deze thesis gaat dus verder op het werk van [Hermans and Schrauwen, 2013]. We gebruiken het DRNN zonder LSTM-blokken en gaan deze testen op de TIMIT-spraakherkenningsdataset en
3.4 Werking DRNN
29
op het modelleren van symbolische muziek in de twee volgende hoofdstukken. Hierbij focussen we niet enkel op prestatie maar ook op de analyse van de functionaliteit van de lagen.
3.4
Werking DRNN
Het voorwaarts propageren om een uitvoer per tijdsstap te genereren verschilt niet veel van het gewone RNN. Voor de duidelijkheid gaan we dit toch even kort overlopen. Gaan we eerst even inzoomen op ´e´en tijdsstap dan zien we schematisch hoe dit in elkaar zit in Figuur 3.2.
Figuur 3.2: Een tijdsstap uit een drie-lagig DRNN Iedere pijl staat voor een gewichtenmatrix zoals voorheen. Merk op dat ook in iedere tussenliggende neuronenlaag een pijl zou moeten toekomen. Omdat de gewichtenmatrices per tijdsstap dezelfde zijn, is ervoor geopteerd deze pijlen niet nog eens bij te tekenen. Aangezien er meerdere tussenliggende lagen zijn moeten we nu ook extra gewichtenmatrices invoeren. Als conventie nemen we Vi voor een relatie tussen input en tussenliggende laag of tussen een tussenliggende laag naar een hogere tussenliggende laag. Van een tussenliggende laag naar een output gebruiken we Ai en voor de recurrente gewichten nemen we Wi met i van ´e´en tot en met het aantal lagen dat gebruikt werd. Deze conventie staat ge¨ıllustreerd op Figuur 3.3.
Het voorwaarts propageren is analoog als in het diepe of in het recurrente neurale netwerk. Bij (t+1)
de activatie-waarden van de neuronen hebben we nu hj
(t)
(t+1)
= f (Wj hj + Vj h(j−1) ). h0 wordt P (t) hier dan gelijkgesteld aan de invoer x. De uitvoeren hebben de vorm: y (t) = g( Aj hj ). Als j
activatiefunctie f in de neuronen werd telkens de tanh-functie gebruikt. De uitvoer-functie g is
afhankelijk van de toepassing. Staan we nog even stil dat iedere laag een verbinding heeft met
3.4 Werking DRNN
30
Figuur 3.3: Een drie-lagig DRNN met bijhorende gewichtenmatrices
de uitvoer in plaats van enkel de bovenste. Deze keuze is gemaakt om het vanishing-gradient probleem te voorkomen. Iedere laag dat de gradi¨ent doorloopt wordt hij kleiner. De onderste lagen zouden dus in dat geval erg klein kunnen worden en de lagen zouden ineffectief getraind worden. Door een verbinding te maken tussen iedere laag en uitvoer wordt dit dus verholpen. Het is ook makkelijker om de functionaliteit van een laag te bekijken. Maar daar komen we later op terug. Het trainen van het netwerk kan nog steeds met BPTT. In een neuronenlaag komt een fout toe vanuit de corresponderende neuronenlaag ´e´en tijdsstap verder. Daar komt ze samen met een fout die rechtstreeks van de uitvoer komt. En dan moet ze opnieuw doorheen de hele laag terug worden gepropageerd om dan hetzelfde proces te herhalen in de laag daaronder en zo verder. Het gradient descent algoritme is dus nog steeds eenvoudig uit te voeren en wordt in volgende hoofdstukken dus ook gebruikt bij de training.
TOEPASSING 1: TIMIT
31
Hoofdstuk 4
Toepassing 1: TIMIT Onze eerste toepassing voor de DRNN’s is spraakherkenning. We maken gebruik van de TIMITdatabase [Garofolo et al., 1993]. Deze bestaat uit ingelezen tekst door 462 engelstalige sprekers met verschillende dialecten. De audio-signalen worden verwerkt in 39 dimensionale vectoren om classificatie van fonemen mogelijk te maken. Elk van deze vectoren zijn manueel gelabeld als een foneem. Ieder sample is dus een 39-dimensionele inputvector corresponderend met een foneem. De database bestaat uit 1 010 659 trainingssamples en 350 343 testsamples. De stateof-the-art classificatiefout ligt onder de 20% PER of phoneme error rate [Graves et al., 2013]. Deze foutmaat is een andere dan de simpele fout die wij in wat volgt zullen gebruiken. Het is echter niet de bedoeling in deze thesis om dat te evenaren, maar om te onderzoeken of een diep recurrent neuraal beter scoort dan een ´e´en-lagig recurrent neuraal netwerk.
4.1
training
Zoals in hoofdstuk 2 en 3 besproken gebruiken we het simpele stochastic gradient descent algoritme in combinatie met backpropagation through time bij de training. Om het netwerk te trainen moeten zoals in vorige hoofdstukken vermeld een aantal metaparameters gesweept worden. We maken dus gebruik van een validatieset om de beste parameters te vinden. Die worden dan gekozen en daarna trainen we het netwerk opnieuw met de trainings- en validatieset samen om dan de prestatie op de testset te bekijken. Als validatieset gebruiken we ongeveer 10 % van de gegeven trainingdata. Aangezien we bezig zijn met een multi-class classificatietaak gebruiken we als uitvoerfunctie g de softmax. Deze geeft een probabiliteit terug dat het te schatten foneem tot de k-de klasse behoort en dit voor elke klasse.
4.2 Resultaten
4.2
32
Resultaten
4.2.1
Hoe vergelijken?
E´en van de doelen van deze thesis, bestaat erin een DRNN met verschillende lagen te vergelijken met een RNN met ´e´en laag. Aangezien beide configuraties niet van hetzelfde aantal gewichtenmatrices gebruik maken moet er dus een eerlijke manier gevonden om onderling de prestaties te vergelijken. Aangezien het aantal co¨effici¨enten van de gewichtenmatrices afhangt van het aantal gebruikte neuronen per laag, zullen we deze zo aanpassen dat het totaal aantal gebruikte parameters (gewichtsco¨effici¨enten in alle gewichtenmatrices) gelijk is. Voor iedere invoermatrix Vi met i 6= 1 hebben we N × (N + 1), voor V1 hebben we N × d met d de dimensie van de invoer, voor Ai hebben we d × N en voor Wi hebben we N × N . Na optellen bekomen we voor het aantal parameters p in functie van het aantal neuronen per laag N en het aantal lagen L dat het DRNN bezit:
p = N d + (L − 1) N (N + 1) + L N 2 + L (N d)
(4.1)
= (2L − 1) N 2 + N [(d + 1) L + (d − 1)]
(4.2)
' (2L − 1) N 2 + d (L + 1) N
(4.3)
Deze tweede-graadsvergelijking in N kan dan gebruikt worden om, gegeven het totaal aantal parameters dat gebruikt kan worden, het juiste aantal neuronen per laag te berekenen. Bij de TIMIT-taak hebben we gebruik gemaakt van 400 000 parameters. Voor een DRNN van 1 tot en met 5 lagen geeft dit dan het aantal neuronen per laag in onderstaande tabel:
Aantal lagen L Aantal neuronen N
1 600
2
3
4
5
348
269
227
200
Eens we het aantal neuronen per laag weten, gaan we nu de metaparameters sweepen. Het is belangrijk dat we bij ieder netwerk (dus de DRNN’s met verschillend aantal lagen) dezelfde parameters gebruiken. Daarom gaan we het gemiddelde van de validatiefouten gebruiken als maat voor de prestatie van de metaparameters. Als batchgrootte hebben we een invoer van 50 tijdsstappen gekozen. Daarna is een invoerfactor gekozen van 0.005 a.d.h.v. het histogram van de activaties in de eerste laag. De uitvoerfactor kiezen we nul. De leersnel-
4.2 Resultaten
33
heid en het aantal iteraties zijn gesweept. − 38
[10−3 ,10
− 37
,10
− 53
,10−2 ,10
− 34
,10
,10−1 ,10
− 32
We hebben de leersnelheid η laten vari¨eren in 1
,10− 3 ,1]. De beste validatiefouten werden bekomen
bij η = 0.1. Aangezien we η lineair laten dalen over het aantal iteraties is ook deze parameter niet vrij te kiezen. Na sweepen kiezen we 1.5M iteraties.
4.2.2
Vergelijken prestatie
Na het trainen willen we in eerste instantie weten hoe de prestatie zich verhoudt tot het aantal lagen er gebruikt worden in het DRNN. Als prestatie hebben we het volgende foutpercentage: De verhouding van het aantal misgeclassificeerde fonemen op het totaal aantal geclassificeerde fonemen. Net zoals bij het trainen laten we door het getrainde netwerk een uitvoer genereren aan de hand van de invoer van de testset. Dit geeft dan opnieuw een kansverdeling over de verschillende fonemen. Het foneem met de hoogste kans wordt gekozen en vergeleken met het targetfoneem van de testset. Herhalen we dit proces voor alle test-invoeren dan bekomen we het testfoutenpercentage. De resultaten voor een DRNN van 1 t.e.m. 5 lagen is te zien op Figuur 4.1.
Figuur 4.1: Testfout in functie van het aantal lagen L
We zien dat de trend die we hoopten te bekomen zichtbaar is. Bij een ´e´enlagig RNN hebben we een testfout van 0,2856. De fout daalt per extra laag tot een fout van 0,2753 in een vijflagig DRNN wat een verbetering geeft van 0,0103. Deze verbetering is zichtbaar maar relatief klein. Hieronder een overzicht van de fout per aantal lagen:
4.2 Resultaten
Aantal lagen L Testfout
34
1 0.2856
2
3
4
5
0.2817
0.2789
0.2764
0.2753
Het eerste deel van het doel van de thesis kan dus bij deze toepassing positief ge¨evauleerd worden. Rest nog de vraag wat verantwoordelijk is voor deze verbetering in prestatie en of er een verband is met de context die per laag belangrijk is.
4.2.3
Context
Om een schatting te maken welke context onze DRNNs met zich meedragen, gaan we opnieuw gebruik maken van het backpropagation-algoritme. Deze keer echter, gaan we niet de gewichten trainen, maar de invoer. We starten met een willeukeurige invoer, propageren een aangepaste fout doorheen het al getrainde netwerk en passen de invoer aan, net zoals we deden bij de gewichtenmatrices. Zo bekomen we een ‘gewenste’ invoer door het netwerk. De aangepaste fout wordt zo ontworpen dat enkel het targetfoneem in ´e´en tijdsstap belangrijk is, wat ervoor gegeven wordt als uitvoer is niet belangrijk en de fout in iedere vorige tijdsstap wordt dus op 0 gebracht en niet teruggepropageerd. Toch zal de gewenste invoer ook vroeger in de tijd aangepast worden door de terugpropagatie doorheen de tijd, zie Figuur 4.2. Door deze gewenste invoeren uit te middelen over verschillende targetfonemen kunnen we dan een schatting van de context bekomen.
Deze schatting kan ons dan een idee geven van de context die het netwerk gebruikt, door te kijken naar hoe ver in de tijd er nog een relatief belangrijke invoer is. Gebruik makend van ridge regression zal ver in het verleden de gewenste invoer naar 0 convergeren. Ridge regression zorgt ervoor dat we bij iedere aanpassing van de te trainen invoer we een deel van de huidige invoer gaan aftrekken. In formule wordt dit: invoer’ = invoer − η gradient − λ invoer
(4.4)
waarbij λ de regressieparameter is. Deze bepaalt hoe sterk we de gewenste invoer willen onderdrukken. Als we geen gebruik zouden maken van ridge regression zou de ge¨ınitialiseerde invoer in het verleden waar ze niet belangrijk is, hoog blijven en dus een slechte schatting geven van de context.
4.2 Resultaten
35
Figuur 4.2: Het trainen van de ‘gewenste’ invoer verloopt in drie stappen: 1) De fout wordt enkel in de huidige tijdsstap (cirkel rechts) naar de laag in kwestie teruggepropageerd, hier is dat de tweede laag. Ze wordt dan doorheen die hele laag teruggepropageerd (boven). 2) De fout wordt doorheen het hele netwerk naar de invoer gepropageerd (onder). 3) De invoer wordt aangepast en dit proces herhaalt zich.
We willen nu, in plaats van de context-afhankelijkheid van heel het netwerk, laag per laag gaan schatten of elke toegevoegde laag ook een toegevoegde context heeft. In analogie met de hogere complexiteit per laag van een Diep Neuraal Netwerk. Om per laag te kunnen de gewenste invoer trainen, gaan we enkel de aangepaste fout terugpropageren naar de laag in kwestie. En niet naar alle lagen zoals wel werd gedaan in het gewone trainingsproces. Het trainingsproces werd gedaan met 1000 iteraties en een leersnelheid van 0.1. Het resultaat voor iedere laag is mooi samengevat in onderstaande figuur. We geven de genormeerde grootte’s weer van de gewenste invoer gesommeerd over alle invoerkanalen. Met andere woorden hebben we de gewenste invoer van elke laag gedeeld door de maximale waarde over alle tijdsstappen in de gewenste invoer van
4.2 Resultaten
36
die laag om beter te kunnen vergelijken tussen de verschillende lagen.
Figuur 4.3: Schatting context voor de verschillende lagen: We zien een steeds grotere context (grotere relatieve waarden in vroegere tijdsstappen per laag)
We zien mooi dat voor elke laag, de temporele context langer is. Bij de eerste laag wordt er slechts tot ongeveer 15 tijdsstappen teruggekeken om een schatting te maken van de uitvoer. Bij de vijfde laag wordt er al tot ongeveer 30 stappen teruggekeken in de tijd om diezelfde schatting te maken. We zien dus duidelijk dat een hogere laag, een langere context draagt. Vanzelfsprekend is het zo dat de eerste tijdsstappen terug in de tijd het belangrijkste zijn. Vandaar de hogere waarden.
Merk op dat we voor de regressieparameter met verschillende waarden hebben gewerkt (0.01 0.1 1 10) om te controleren dat de waarneembare trend geen gevolg is van louter ridge regression. Als we enkel met ´e´en regressieparameter zouden trainen, zou mogelijks de te observeren trend geforceerd zijn door ridge regression. De trend werd bij elke waarde van λ opnieuw gezien en dus is het voorgaande niet het geval. bovenstaande figuur is ´e´en voorbeeld met λ=10.
4.2 Resultaten
37
Om de gewenste invoer op een andere manier te trainen hebben we ook nog een variatie van het vorige algoritme gebruikt. Bij het vorige trainingsalgoritme werd in de voorwaartse propagatie niets veranderd in vergelijking met de normale training van de gewichtenmatrices van een DRNN.
We kunnen nu ook, om nog specifieker de functionaliteit van een enkele laag te gaan bekijken, ervoor zorgen dat enkel de laag in kwestie een verbinding met de uitvoer heeft. En dus wordt de uitvoer enkel berekend vanuit die laag als y = g(Alaaginkwestie hlaaginkwestie ) en is ze niet meer afhankelijk van de andere lagen. De andere lagen hebben dus geen rechtstreekse bijdrage meer en kunnen het resultaat van de gewenste invoer niet be¨ınvloeden. In het terugpropageren verandert er niets aangezien we al enkel terugpropageerden naar de laag in kwestie. De resultaten bij deze variatie zijn gelijkaardig. Dezelfde trend werd gezien en ook hier is de temporale context groter bij een hogere laag:
Figuur 4.4: Schatting context voor de verschillende lagen op de tweede manier: Dezelfde trend is te observeren als hiervoor)
4.2 Resultaten
4.2.4
38
Vergelijken invoer
Als laatste test kunnen we nu nog de gewenste invoer bekomen uit vorige paragraaf gaan vergelijken laag per laag en met een echte invoer uit de dataset bij het gegeven target. In onderstaande figuren zien we telkens dat de gewenste invoer voor iedere laag sterk verschilt met de echte invoer. Toch, kunnen we per stijgende laag telkens zien dat de gewenste invoer verder in het verleden teruggaat en dus de temporale context groter wordt. De bovenste figuur heeft targetfoneem 24 en werd getraind met λ=1. De middenste figuur heeft targetfoneem 17 en werd getraind met λ=0.1. En de laatste figuur heeft targetfoneem 6 en is getraind met λ = 0.03.
Figuur 4.5: Targetfoneem 21. Van linksboven naar rechtsonder: Echte invoer, Gewenste invoer laag 1 t.e.m. 5
4.2 Resultaten
39
Figuur 4.6: Targetfoneem 18. Van linksboven naar rechtsonder: Echte invoer, Gewenste invoer laag 1 t.e.m. 5
Figuur 4.7: Targetfoneem 8. Van linksboven naar rechtsonder: Echte invoer, Gewenste invoer laag 1 t.e.m. 5
4.3 Samengevat
4.3
40
Samengevat
De TIMIT-toepassing toont heel mooi aan wat nu net het voordeel is van de DRNN-architectuur. De extra lagen zorgen voor een betere prestatie met eenzelfde aantal toegelaten parameters. Dit kan worden uitgelegd door te kijken naar de gebruikte context. Iedere toegevoegde laag gaat rekening houden met fonemen uit een verder verleden. Zo kan een betere schatting worden gemaakt over welk foneem op de huidige tijdsstap gezocht wordt en dit vertaalt zich in de verbetering van de prestatie.
TOEPASSING 2: SYMBOLISCHE MUZIEK
41
Hoofdstuk 5
Toepassing 2: Symbolische muziek 5.1
introductie
Na de TIMIT-toepassing, is er als tweede toepassing symbolische muziek gekozen. Een DRNN immers is uitermate geschikt om een hi¨erarchie in de tijd te modelleren. Het ritme van muziek zou daar dus perfect bij moeten aansluiten. Na een korte literatuurstudie werd gevonden dat het aanleren van jazz-ritmes mogelijk is a.d.h.v. LSTM of long short term memory [Franklin, 2005] [Eck and Schmidhuber, 2002]. Dit is een speciaal type recurrent neuraal netwerk dat gebruik maakt van geheugenblokken om vele tijdsstappen terug te kunnen gaan kijken. Deze blokken zijn expliciet aanwezig in de architectuur terwijl het ons doel is om zo’n functionaliteit impliciet in de DRNN-architectuur te verkrijgen.
Het doel bij deze toepassing is dus een model van de muziek te maken en dan zo uiteindelijk ritme’s te leren of genereren. Om de moeilijkheid van de taak enigzins te beperken, is er gekozen om enkel te werken met klassieke pianomuziek. De zelfgemaakte dataset bestaat uit 106 muziekstukken in MIDI-formaat. Bij het MIDI-formaat, dat veel wordt gebruikt bij keyboards, wordt opgeslaan wanneer een noot ‘ingedrukt’ is en wanneer ze weer losgelaten wordt. Om nu deze MIDI-bestanden te verwerken naar een ideale invoer, is er een raster gemaakt met 25 punten per seconde voor iedere noot. Een rasterpunt staat aan als de noot speelt; het staat af als de noot niet aan het spelen is. Voor alle 127 noten in het MIDI-spectrum ontstaat dus een invoervector met dimensionaliteit 25 keer het aantal seconden. Kortweg wordt er dus om de 0.04 seconden gekeken welke noten aanliggen op dat moment. Diegene die aanliggen krijgen een 1 op die tijdsstap, de andere krijgen een 0 en dan wordt overgegaan op de volgende tijdsstap.
5.1 introductie
42
De grootte van de sample rate, m.a.w. het aantal rasterpunten per seconde, is een belangrijke afweging tussen het verliezen van informatie en de moeilijkheid voor het netwerk om een ritme te leren. Een noot die twee maal kort na elkaar gespeeld zou worden, zou met een te kleine samplerate als ´e´en noot ge¨ınterpreteerd worden, zie Figuur 5.1. Daar staat tegenover dat hoe meer tijdsstappen een DRNN in het verleden context nodig heeft, hoe moeilijker het wordt deze nog mee te dragen (door onder andere het vanishing gradient probleem) en dus hoe moeilijk het zal worden om een ritme aan te leren.
Figuur 5.1: Raster voor verschillende samplerates Het trainingsalgoritme vertoont kleine aanpassingen t.o.v. de TIMIT-toepassing. Daar verschillende noten tergelijkertijd kunnen gespeeld worden, kunnen we dus geen gebruik meer maken van de softmax uitvoerfunctie. Deze waarborgt immers ´e´en gespeelde noot in plaats van verschillende noten tergelijkertijd. Om dit probleem op te lossen gaan we voor ieder kanaal apart, dus voor iedere noot, een sigmoidfunctie als uitvoer gebruiken. Deze zal dan ook per kanaal (en niet meer gezamenlijk zoals bij de softmax) een probabiliteit als uitvoer geven of de noot al dan niet gespeeld wordt. Deze aanpassing van de softmax-functie in de sigmoidfunctie verandert niets aan het backpropagation trainingsproces. Om dezelfde reden als hiervoor, namelijk dat er meerdere noten tergelijk kunnen gespeeld worden, zal ook de kostfunctie en de fout anders gedefinieerd worden. We gebruiken nu de crossentropy kostfunctie en fout. Met t de targets en p de probabiliteiten gegeven als uitvoer wordt deze gedefinieerd als: cross-entropy error = −
N X i=1
[ti log pi + (1 − ti ) log(1 − pi )]
(5.1)
Deze cross-entropy fout zal gebruikt worden om de prestatie van het netwerk te kunnen beoor-
5.2 Prestatie
43
delen. Het geeft een maat voor de overlap tussen de berekende probabiliteiten door het netwerk en de targets. De targets in het geval van een voorspellend netwerk zijn de invoeren van de volgende stap, net zoals bij de roodkapje taak.
5.2
Prestatie
Na dezelfde stappen te doorlopen als bij de TIMIT-toepassing (sweepen hyperparamaters met validatieset, netwerk trainen en testen op testset) bekomen we de prestatie voor de muziektoepassing. Als validatieset hebben we hier de middenste 10% gekozen van de data. Als leersnelheid η hebben we 0.5 met 20000 iteraties. Opnieuw daalt de leersnelheid lineair naar nul. Als invoerschaling gebruiken we 0.1 en in tegenstelling tot de TIMIT-taak hebben we hier wel een uitvoerschaling gebruikt. Als we alle uitvoergewichten op nul zetten om te initialiseren merken we dat de uitvoeren allen identiek blijven en dus geen ritme wordt geleerd. Vandaar is de uitvoerschaling 2 gekozen om te starten met een variatie in de uitvoeren. Om een ritme te kunnen leren is er gekozen voor een grote batchgrootte van 500 ofwel 20 seconden aan een samplerate van 25. Bij deze toepassing maken we gebruik van een netwerk van 166 200 parameters. Dit komt overeen met het volgende aantal neuronen per laag voor ieder DRNN:
Aantal lagen L Aantal neuronen N
1 300
2
3
4
5
180
138
115
100
Op Figuur 5.2 zien we dat er een nog relatief grote verbetering is door het toevoegen van lagen. De prestatie verbetert met 0.0155. De fout per laag wordt gegeven in onderstaande tabel: Aantal lagen L Cross-entropy fout
1 0.0390
2
3
4
5
0.0265
0.0249
0.0243
0.0235
Om te onderzoeken hoe dit komt, gaan we opnieuw een gewenste invoer laten trainen door het netwerk. Net als bij TIMIT slaan we de gewichtenmatrices op na de training van het vijflaagse DRNN en gebruiken we die om de invoer te gaan trainen. De leersnelheid hier werd groter gekozen, namelijk 10. De regressieparameter is echter kleiner, namelijk 10−4 . Na 1000 iteraties en uitmiddelen over verschillende targetnoten, bekomen we dan zo Figuur 5.3. Deze is genormeerd zodanig dat we een zicht krijgen op de relatieve context die werd gebruikt. We zien
5.2 Prestatie
44
Figuur 5.2: Cross-entropy fout in functie van het aantal lagen L inderdaad dat de eerste 3 lagen een steeds langere context dragen. Het gedrag van de vierde en vijfde laag wijkt af van wat we eerder zagen. Alle 50 tijdsstappen in het verleden die getraind werden, blijken even belangrijk te zijn. De reden hiervoor is dat we de relatieve waarde bekijken t.o.v. het maximum in elke laag. Stellen we Figuur 5.3 voor op een absolute niet-genormeerde manier dan bekomen we Figuur 5.4. Hier is duidelijk te zien waarom elke invoer even belangrijk is bij de vierde en vijfde laag. De absolute waarde van de gewenste invoer van de vierde en vijfde laag is immers veel kleiner dan bij de eerste 3 lagen, en is zo goed als nul. Vandaar dat de relatieve gewenste invoer overal groot was.
Figuur 5.3: Relatieve gewenste invoer per laag
5.2 Prestatie
45
Figuur 5.4: Absolute waarde gewenste invoer per laag
Als laatste bekijken we dan nog eens of dit zich op een gelijke manier vertaald in de functionaliteit van een drie-laags DRNN. Het resultaat van de gewenste invoer is te zien in Figuur 5.5. Inderdaad, de context-afhankelijkheid van de derde laag in een drie-laags DRNN blijkt even groot te zijn als in een vijf-laags DRNN, desondanks dat er meer neuronen per laag gebruikt worden. Het lijkt erop dat bij het gebruikte trainingsproces we niet de benodigde context kunnen aanleren aan de vierde en vijfde laag van het DRNN.
Figuur 5.5: Relatieve gewenste invoer per laag
5.3 Alternatieve leermethode
46
Als we nu de context beter bekijken zien we dat er in de derde laag tot ongeveer 30 tijdsstappen terug wordt gegaan. Aan een samplerate van 25 per seconde, staat 30 tijdsstappen voor amper 1.2 seconden aan context. Gezien de taak is om ritme’s in muziek zelf te leren en dan voornamelijk om te leren wanneer een nieuwe noot wordt gespeeld, lijkt een context van 1.2 seconden erg weinig en onvoldoende om de taak op een goeie wijze te volbrengen, ondanks de lage crossentropy error. Dit vraagt dus om een nadere vergelijking van de output y van het netwerk en de targets die hierbij horen. Het resultaat van ´e´en zo’n noot zien we gedeeltelijk in Figuur 5.6. Om duidelijk te tonen waar het probleem zit is er sterk ingezoomd op de overgang van een niet gespeelde noot naar een wel gespeelde noot. Het probleem lijkt zeer duidelijk. Het netwerk leert enkel om noten te herhalen, maar heeft moeite om zelf de overgangen te voorspellen. Daarom komt de output y, dus ´e´en tijdsstap achter de targets. Niet enkel bij deze noot en deze overgang is dit zo, het blijkt bijna overal zo te zijn. Het vermoeden van een niet lang genoege context wordt door dit fenomeen dus versterkt. In een laatste poging om toch een netwerk te verkrijgen die wel ritme’s kan modelleren, is er voor de taak nog een andere leermethode gebruikt.
Figuur 5.6: Vergelijking uitvoer netwerk versus target
5.3
Alternatieve leermethode
Om nu te focussen op het leren van de overgangen en niet op het enkel reproduceren van de laatste gespeelde noten, gaan we een alternatieve leermethode gebruiken. Deze is deels vergelijkbaar met de leermethode van de gewenste invoer. In die zin dat we een speciale fout gaan gebruiken om terug te propageren doorheen het netwerk en om dus de gewichtenmatrices te trainen. Op de tijdsstappen waar een overgang is, gaan we de fout vermenigvuldigen met een factor, zodanig dat deze tijdsstappen belangrijker zijn in het trainingsproces. Op die manier hopen we toch een
5.3 Alternatieve leermethode
47
DRNN te krijgen die overgangen en ritme’s in muziek kan leren. Als factor hebben we 2, 5, 10 en 100 geprobeerd. De prestatie van het netwerk bleef grotendeels onveranderd zoals te zien op Figuur 5.7. De kleine cross-entropy error van ongeveer 0.0245 is dus bijna volledig ontstaan door het herhalen van de laatste invoer en niet door het leren van de overgangen. Zelfs wanneer we de fout enkel behouden bij een overgang en op nul zetten bij een niet-overgang kwam er geen verbetering in.
Figuur 5.7: Prestatie alternatieve leermethode t.o.v. het aantal lagen Wanneer we dan gaan vergelijken tussen de uitvoer en de targets, zien we inderdaad in elk van voorgaande gevallen dat opnieuw de uitvoer ´e´en tijdsstap achterloopt op de targets. Een voorbeeld is gegeven in Figuur 5.8.
Figuur 5.8: Voorbeeld bij vergelijken uitvoeren van alternatieve leermethode t.o.v. targets
5.4 Voorspellen muziek
5.4
48
Voorspellen muziek
Desondanks het minder presteren van het netwerk op het leren van ritme’s, zijn we toch gaan kijken of het zelf muziek kan genereren. Om dat te doen starten we met een initialisatie en laten we het netwerk dan verder aanvullen. De uitvoer op de eerstvolgende stap na de initialisatie geeft dan de probabliteit weer van de noot staat aan of uit. Uit deze probabiliteiten voor iedere noot worden dan de nieuwe invoeren gesampled. Op die manier wordt er ‘muziek’ gegenereert door het netwerk. Hieronder staan verschillende voorbeelden van de gegenereerde uitvoer. De initialisatie is te zien vanaf tijdsstap 1200.
Figuur 5.9: Gegenereerde muziek door het getrainde netwerk. De initialisatie loopt tot tijdsstap 1200.
Figuur 5.10: Gegenereerde muziek door het getrainde netwerk. De initialisatie loopt tot tijdsstap 1200.
5.5 Samengevat
49
We zien dat er door het netwerk overgangen worden gemaakt van noot aan naar noot uit. Toch hebben deze overgangen al heel snel niets meer te maken met het ritme dat de initialisatie aangeeft. Als we eens gaan inzoomen naar net na het einde van de initialisatie zien we volgende figuur:
Figuur 5.11: Gegenereerde muziek door het getrainde netwerk. Ingezoomd rond het einde van de initialisatie. De eerste tijdsstappen lijkt het nog deftig te verlopen, maar na 20 tijdsstappen is het het ritme dus al volledig kwijt. De generatie van muziek vertoont dus alles behalve ritme, maar cre¨eert wel overgangen van aan naar uit.
5.5
Samengevat
Ondanks de goeie prestatie en de aangetoonde langere context per laag, lijkt het DRNN niet geschikt voor deze taak. De gebruikte context is niet groot genoeg om muzikale ritme’s te kunnen aanleren. Dit komt waarschijnlijk door een te hoge samplerate, deze kan moeilijk verder gereduceerd worden zonder verlies van informatie en dus de invoer muzikaal te vervormen. Het netwerk heeft grote moeilijkheden met het zelf voorspellen van overgangen in geleerde data en blijft vaak enkel de vorige invoer reproduceren. Zelfs bij een alternatieve leermethode die focust op enkel de overgangen van de noten tussen aan en af, blijkt er weinig verbetering te zijn. Het doel van de thesis is dus wel aangetoond (betere prestatie en hogere context), maar de taak op zich is niet echt geslaagd.
CONCLUSIE
50
Hoofdstuk 6
Conclusie Het Diep Recurrent Neuraal Netwerk (DRNN) is een interessante uitbreiding van een gewoon recurrent neuraal netwerk terwijl het trainingsalgoritme weinig complexer wordt. Naar analogie met een diep neuraal netwerk, zouden de extra toegevoegde lagen een stijgende complexiteit moeten waarborgen en dus een betere prestatie. De hypothese dat het een betere prestatie zou teweeg brengen werd in deze thesis getoetst aan twee toepassingen. De betere prestatie werd verwacht vooral een gevolg te zijn van een verbetering van de grootte van de context. Deze grotere context wordt gebruikt om een betere invulling van de taak in kwestie te verkrijgen. De eerste toepassing is een eerder standaard taak. Spraakherkenning aan de hand van de TIMIT dataset moest aantonen of de hypothese al dan niet correct is. En inderdaad, de prestatie afgebeeld op Figuur 4.1 blijkt te verbeteren in functie van het aantal lagen dat het DRNN gebruikt. Dat dit het gevolg is van de stijgende context-afhankelijkheid volgt uit de gewenste invoer voor iedere laag in een getraind DRNN. Figuur 4.3 toont op een mooie manier het vorige aan. Hoe hoger de laag, hoe verder in het verleden gekeken wordt om een schatting te maken van het juiste target-foneem. De tweede meer uitdagende taak bestond erin ritme’s te leren uit symbolische muziek. Aan de hand van een eigen dataset gemaakt uit klassieke piano muziek werd een DRNN getraind. Hoewel de prestatie en de context-afhankelijkheid positief kunnen beoordeeld worden op Figuur 5.2 en Figuur 5.3 bij een stijgend aantal lagen, toont deze taak toch een pijnpunt aan van het DRNN. Het lijkt zo te zijn dat de correcte context aanleren erg uitdagend is. De context in ons DRNN is maar 1.2 seconden (aan een samplerate van 25/sec) en dus te weinig om echte ritme’s in muziek te kunnen ontdekken en aanleren. Overgangen tussen noot aan en uit worden dus amper aangeleerd en het netwerk reproduceert vooral de laatste invoer bij de training. Het genereren
CONCLUSIE
51
van muziek lukt dan weer wel, mede door de sampling van de uitvoer. Resultaten daarvan zijn te zien in Figuur 5.9 en Figuur 5.10, maar het DRNN kan geen ritme’s aanhouden.
BIBLIOGRAFIE
52
Bibliografie [Bishop et al., 2006] Bishop, C. M. et al. (2006). Pattern recognition and machine learning, volume 1. springer New York. [Boyd and Chua, 1985] Boyd, S. and Chua, L. O. (1985). Fading memory and the problem of approximating nonlinear operators with volterra series. Circuits and Systems, IEEE Transactions on, 32(11):1150–1161. [Chen, 1982] Chen (1982). Topological structure in visual perception. Science, 218:699. [Doya, 1993] Doya, K. (1993). Bifurcations of recurrent neural networks in gradient descent learning. IEEE Transactions on Neural Networks, 1:75–80. [Eck and Schmidhuber, 2002] Eck, D. and Schmidhuber, J. (2002). Learning the long-term structure of the blues. In Artificial Neural NetworksICANN 2002, pages 284–289. Springer. [Franklin, 2005] Franklin, J. A. (2005). Jazz melody generation from recurrent network learning of several human melodies. In FLAIRS Conference, pages 57–62. [Garofolo et al., 1993] Garofolo, J. S., Lamel, L. F., Fisher, W. M., Fiscus, J. G., and Pallett, D. S. (1993). Darpa timit acoustic-phonetic continous speech corpus cd-rom. nist speech disc 1-1.1. NASA STI/Recon Technical Report N, 93:27403. [Graves, 2013] Graves, A. (2013). Generating sequences with recurrent neural networks. arXiv preprint arXiv:1308.0850. [Graves et al., 2013] Graves, A., Mohamed, A.-r., and Hinton, G. (2013). Speech recognition with deep recurrent neural networks. In Acoustics, Speech and Signal Processing (ICASSP), 2013 IEEE International Conference on, pages 6645–6649. IEEE. [Hermans and Schrauwen, 2013] Hermans, M. and Schrauwen, B. (2013). Training and analysing deep recurrent neural networks. In Burges, C., Bottou, L., Welling, M., Ghahramani, Z.,
BIBLIOGRAFIE
53
and Weinberger, K., editors, Advances in Neural Information Processing Systems 26, pages 190–198. Curran Associates, Inc. [Hochreiter and Schmidhuber, 1997] Hochreiter, S. and Schmidhuber, J. (1997). Long shortterm memory. Neural computation, 9(8):1735–1780. [Ku and Lee, 1995] Ku, C.-C. and Lee, K. Y. (1995). Diagonal recurrent neural networks for dynamic systems control. Neural Networks, IEEE Transactions on, 6(1):144–156. [LeCun and Bengio, 1995] LeCun, Y. and Bengio, Y. (1995). Convolutional networks for images, speech, and time series. The handbook of brain theory and neural networks, 3361. [LeCun and Cortes, 1998] LeCun, Y. and Cortes, C. (1998). The mnist database of handwritten digits. [Martens, 2010] Martens, J. (2010). Deep learning via hessian-free optimization. In Proceedings of the 27th International Conference on Machine Learning (ICML-10), pages 735–742. [Mitchell, 1999] Mitchell, T. M. (1999). Machine learning and data mining. Communications of the ACM, 42(11):30–36. [Pang et al., 2002] Pang, B., Lee, L., and Vaithyanathan, S. (2002). Thumbs up?: sentiment classification using machine learning techniques. In Proceedings of the ACL-02 conference on Empirical methods in natural language processing-Volume 10, pages 79–86. Association for Computational Linguistics. [Pascanu et al., 2013] Pascanu, R., Gulcehre, C., Cho, K., and Bengio, Y. (2013). How to construct deep recurrent neural networks. arXiv preprint arXiv:1312.6026. [Rabiner, 1989] Rabiner, L. (1989). A tutorial on hidden markov models and selected applications in speech recognition. Proceedings of the IEEE, 77(2):257–286. [Roman and Jameel, 1996] Roman, J. and Jameel, A. (1996). Backpropagation and recurrent neural networks in financial analysis of multiple stock market returns. In System Sciences, 1996., Proceedings of the Twenty-Ninth Hawaii International Conference on,, volume 2, pages 454–460. IEEE. [Samuel, 1962] Samuel, A. L. (1962).
Artificial intelligence–a frontier of automation.
Information Technology, 4(1-6):173–177.
it-
BIBLIOGRAFIE
54
[Sutskever et al., 2011] Sutskever, I., Martens, J., and Hinton, G. E. (2011). Generating text with recurrent neural networks. In Proceedings of the 28th International Conference on Machine Learning (ICML-11), pages 1017–1024. [Vallabhaneni et al., 2005] Vallabhaneni, A., Wang, T., and He, B. (2005). Braincomputer interface. In Neural Engineering, pages 85–121. Springer. [Viola and Jones, 2001] Viola, P. and Jones, M. (2001). Rapid object detection using a boosted cascade of simple features. In Computer Vision and Pattern Recognition, 2001. CVPR 2001. Proceedings of the 2001 IEEE Computer Society Conference on, volume 1, pages I–511. IEEE. [Werbos, 1990] Werbos, P. J. (1990). Backpropagation through time: what it does and how to do it. Proceedings of the IEEE, 78(10):1550–1560.