第五章、 結論
第二節、 建議
1 神經網路可解釋性
近來機器學習的應用非常的多,而許多研究機器學習模型的研究多半著重 在調適模型或針對預測效果。因此去黑箱化、神經網路可解釋性的議題也慢慢 被廣泛討論 。以本研究而言,調用的模型相對簡單而參數也相對少,相關度低,
尚還可分析做解釋。但一些大型的模型裡特徵、組合、參數可能上億個,能夠
一一解釋的機率近乎為零。
可解釋性也是一個沒有準確定義的評價標準,但不能否認此聲浪代表著此 預測方法會讓一般大眾感到不安全感,也正是後續研究者需要改進的方向。本 研究認為可解釋性應著重在解釋相關性,因為模型是在估計概率,往往一般定 義的可解釋性是要解釋如何在單例上模型得出來的結果。而解釋概率的相關性 皆不能屏除數學概率語言來解釋與描述概率。
而大型模型中擁有的上億個參數組合與可能性,很難用人去判斷哪個參數 才是重點影響的值,再者數字概率的計算方式也不是一般終端消費者能夠理 解。人力也無法駕馭這麼大量的數據,所以才有神經網路模型,而有效率的模 型大多都希望能夠做到端對端,重點在解決的問題,而過程只是其次。不再糾 結於對人的可解釋性也許才更接近事實。
以未來在行銷文案上的應用來說,建議應針對結果,搭配各種評比的方式 來判斷生成結果的可行性。可以主觀搭配定量分析的方法、客觀以易讀性或其 他綜合評分作為依據來使最後輸出資料更具有實用價值。
2 Generative Adversarial Network 生成對抗網絡
在與本研究調用模型作者 Jonbrune(2017)的訪談中他提到,建議使用 Gan-LSTM (Generative Adversarial Network)進行後續的研究。
Goodfellow, Abadie, Mirza, Xu, Farley, Ozair, Courville, Bengio(2014) 提出 GAN 是一種用於無監督機器學習的人工智慧演算法,由兩個神經網絡相互競爭 的系統來實現。
圖5.2.1 GAN 架構。
資料來源:github: Jonbruner, 2017
GAN 基本運作 模式 為訓練兩個模型 : Generator network(生成模 型 )跟 Discriminator network(鑑別模型);我們 生成模型使用 D-Dimensional noise vector 我們給的可以是不同Random Noise(隨機噪聲)的資料製造出一份 Fake Image(假 資料),而鑑別模型則要分辨資料真假,給出回饋。生成模型再用回饋繼續訓練,
在鑑別模型無法分辨知道是Real Image(真資料)或生成模型產生的資料的時候,
訓練就算完成,並且產出 Predictived Labels6(預測的答案);對於實際應用上來 說他可以幫助我們自動調整模型的參數訓練。
6 Label: 預測的答案可以是機器學習系統產生的答案或是訓練資料後的正確答案。
參考文獻
一、英文文獻:
Sheldon, A(1911). Successful Selling, USA, Kessinger Publishing, Rare Reprint Series, Part 1.
Earl Robert Babbie(2010). The Practice of Social Research. 12th ed. Belmont, CA:
Wadsworth Cengage.
Jason Brownlee (2016). Retrieved March 2 2018, from
https://machinelearningmastery.com/what-is-deep-learning/
Steve Cassidy (2002). Speech Recognition. (Department of Computing, Macquarie University COMP449) Abstract retrieved March 2 2018, from
http://web.science.mq.edu.au/~cassidy/comp449/html/index.html
Ruth Colmer (2017).「The Flesch Reading Ease and Flesch-Kincaid Grade Level.」.Readable.io.Retrieved 2018, April 17,from:
https://readable.io/content/the-flesch-reading-ease-and-flesch-kincaid-grade-level/
Michał Chromiak (2017). Retrieved March 2 2018, from
https://mchromiak.github.io/articles/2017/Nov/30/Explaining-Neural-Language-Modeling/#.WvavoYiFPIU
Deeplearning4j (2017) A Beginner’s Guide to Recurrent Networks and LSTMs.
Abstract retrieved March 2 2018, from https://deeplearning4j.org/lstm.html
Poole, David; Mackworth, Alan; Goebel, Randy (1998). Computational Intelligence:
A Logical Approach. New York: Oxford University Press. ISBN 0-19-510270-3.
Evolution: from vanilla RNN to GRU & LSTMs (n.d.) .Retrieved April 10 2018 from:
https://docs.google.com/presentation/d/1UHXrKL1oTdgMLoAHHPfMM_s rDO0BCyJXPmhe4DNh_G8/pub?start=false&loop=false&delayms=3000
&slide=id.g24de73a70b_0_0
Nichole ElizabethDeMeré.(2015) .Retrieved April 25 2018
from :https://blog.hubspot.com/marketing/copywriting-lessons-joanna-wiebe
Citation. Flesch, R (1948). A new readability yardstick. Journal of Applied Psychology. 32(3), 221-233.
Frank Gannon (2001).EMBO Rep. Sep;2(9):743.
黃鑫 (2013, May 13). Andrew Ng: Deep Learning, Self-Taught Learning and Unsupervised Feature Learning [Video file]. Retrieved from
https://www.youtube.com/watch?v=n1ViNeWhC24
Ben Hamner. (2014, April 4). Ben Hamner: Machine Learning Gremlins [Video file]. Retrieved from https://www.youtube.com/watch?v=tleeC-KlsKA
import.io (2015, December 11). Andrew Ng :Why should you care about deep learning [Video file]. Retrieved from
https://www.youtube.com/watch?v=O0VN0pGgBZM
Jonbruner. (2017) .May 5 2018 from : https://github.com/jonbruner/generative-adversarial-networks/blob/master/gan-notebook.ipynb
Chung, J., Gulcehre, C., Cho, K., & Bengio, Y. (2014). Empirical evaluation of gated recurrent neural networks on sequence modeling. In NIPS 2014 Workshop on Deep Learning, December 2014
Kejin Jin (2017). Retrieved March 2 2018, from
Ian J. Goodfellow, Jean Pouget-Abadie, Mehdi Mirza, Bing Xu, David Warde-Farley, Sherjil Ozair, Aaron Courville, Yoshua Bengio (2014). Generative Adversarial Networks. arXiv:1406.2661
MMC venture (2016).Retrieved April 10 2018 from: https://medium.com/mmc- writes/artificial-intelligence-in-the-uk-landscape-and-learnings-from-226-startups-70b9551f3e4c
Vartul Mittal(2017). Retrieved April 10 2018 from:
https://medium.com/@vratulmittal/top-15-deep-learning-applications-that-will-rule-the-world-in-2018-and-beyond-7c6130c43b01
Michael Masterson(2007) .Retrieved April 17 2018 from : https://www.awai.com/2007/11/peer-review/
Fabrizio Milo (2017).「What happened at the Tensorflow Dev Summit 2017 - Part 1/3: Community & Applications」. Towards Data Science.Retrieved 2018, April 1,https://towardsdatascience.com/what-happened-at-the-tensorflow-dev-summit-2017-part-1-3-community-applications-77fb5ce03c52
Christopher Olah(2015). Retrieved April 2 2018 from:
https://www.theguardian.com/careers/become-a-copywriter-top-tips
Persado(n.d.).Persado Enterprise, Introducing Persado One. Retrieved April 17 2018 from:https://www.persado.com/
Lennie P. The Cost of Cortical Computation[J]. Current Biology Cb, 2003, 13(6):493-7.
Priyanka, R(2013). AIDA Marketing Communication Model: Stimulating a purchase decision in the minds of the consumers through a linear progression of steps, International Journal of Multidisciplinary Research in Social Management, Vol. 1 , pp 37-44.
Rakkiyappan, R.; Chandrasekar, A.; Lakshmanan, S.; Park, Ju H. (2 January 2015).
Exponential stability for markovian jumping stochastic BAM neural networks with mode-dependent probabilistic time-varying delays and impulse control. Complexity. 20 (3): 39–65
新智元.(2017). Retrieved May 2 2018 from :
http://www.sohu.com/a/229539176_473283
Joseph Sugarman (2007). The Adweek Copywriting Handbook .John Wiley and Sons Ltd, United Kingdom
Derryck Strachan (2013) .Retrieved April 2 2018 from:
https://www.theguardian.com/careers/become-a-copywriter-top-tips
Philip T. Kotler and Gary Armstrong (2005). Principles of Marketing. Toronto:
Pearson Education Canada. pp. 67-70.
LeCun, Y., Bengio, Y., & Hinton, G. (2015). Deep learning. nature, 521(7553), 436.
二、中文文獻:
邱炯友(2003)。學術電子期刊同儕評閱之探析。教育資料與圖書館學,40(3), 309-323。
宋曜廷、陳茹玲、李宜憲、查日龢、曾厚強、林維駿、張道行、張國恩(2013)。 中文文本可讀性探討:指標選取、模型建立與效度驗證。中華心理學刊,
55(1),75-106。
陳建宏、蔡筱倩、郭伯臣、廖晨惠、楊裕貿(2013)。電腦自動化文本分析與詞類 之探究。EITS2013 數位教學暨資訊實務研討會,南台科技大學。
LYNN (2017) 。 民 107 年 4 月 20 日 取 自 : https://hellolynn.hpd.io/2017/11/10/2012%E5%B9%B4%E4%BB%A4%E6
%B7%B1%E5%BA%A6%E5%AD%B8%E7%BF%92%E5%92%8Cnvidi a%E8%82%A1%E5%83%B9%E7%81%AB%E7%88%86%E8%B5%B7%
E4%BE%86%E7%9A%84%E7%9C%9F%E6%AD%A3%E9%97%9C%E 9%8D%B5%E2%94%80%E2%94%80gpu/
張 睿 (2014) 。 民 107 年 4 月 5 日 取 自 : https://www.cbnweek.com/articles/normal/20800
張睿(2018) 。民 107 年 5 月 5 日 取自 http://finance.sina.com.cn/roll/2018-04-24/doc-ifzqvvsa1387051.shtml
句子迷(n.d.) 。民 107 年 3 月 2 日 取自 :https://www.youtube.com/watch?v=tleeC-KlsKA