Tay (人工知能)
出典: フリー百科事典『ウィキペディア(Wikipedia)』 (2023/02/17 03:41 UTC 版)
Tayとはマイクロソフトによるおしゃべりボットで、Twitter上で書き込むボットとして2016年3月23日にお披露目された[1]。
- ^ Andrew Griffin (2016年3月23日). “Tay tweets: Microsoft creates bizarre Twitter robot for people to chat to”. The Independent
- ^ a b Hope Reese (2016年3月24日). “Why Microsoft's 'Tay' AI bot went wrong”. Tech Republic
- ^ Caitlin Dewey (2016年3月23日). “Meet Tay, the creepy-realistic robot who talks just like a teen”. Washington Post
- ^ “Microsoft、人工知能Tayの無作法を謝罪 「脆弱性を修正して再挑戦したい」”. ITmedia. (2016年3月26日)
- ^ Bright, Peter (2016年3月26日). “Tay, the neo-Nazi millennial chatbot, gets autopsied”. Ars Technica. 2019年4月24日閲覧。
- ^ a b Rob Price (2016年3月24日). “Microsoft Took Its New A.I. Chatbot Offline After It Started Spewing Racist Tweets”. Business Insider
- ^ a b “Microsoft deletes 'teen girl' AI after it became a Hitler-loving sex robot within 24 hours”. The Daily Telegraph. 2016年3月25日閲覧。
- ^ “Twitter taught Microsoft’s AI chatbot to be a racist asshole in less than a day”. The Verge. 2016年3月25日閲覧。
- ^ “Microsoft Takes Chatbot Offline After It Starts Tweeting Racist Messages”. Time. 2016年3月25日閲覧。
- ^ “Of Course Internet Trolls Instantly Made Microsoft's Twitter Robot Racist and Sexist”. Esquire. 2016年3月25日閲覧。
- ^ a b “Trolls turned Tay, Microsoft’s fun millennial AI bot, into a genocidal maniac”. The Washington Post. 2016年3月25日閲覧。
- ^ “Microsoft Tay AI returns to boast of smoking weed in front of police and spam 200k followers”. IBTIMES. 2017年10月13日閲覧。
- ^ “Microsoft's Teen Chatbot Has Gone Wild”. Gizmodo. 2016年3月25日閲覧。
- ^ “Microsoft chatbot is taught to swear on Twitter”. BBC News. 2016年3月25日閲覧。
[続きの解説]
「Tay (人工知能)」の続きの解説一覧
- 1 Tay (人工知能)とは
- 2 Tay (人工知能)の概要
- 3 関連項目
- Tay_(人工知能)のページへのリンク