アイ‐コラ
「アイドルコラージュ」の略。
アイドルコラージュ
(アイコラ から転送)
出典: フリー百科事典『ウィキペディア(Wikipedia)』 (2023/07/25 07:37 UTC 版)
アイドルコラージュ(アイドルコラージュ写真、アイドルコラージュ画像)とはアイドルなど有名人の写真を加工し、別の状況にある写真のように作り替えること。またそのような合成画像。通称アイコラ。
- ^ 中西渉「事例33 アイコラ画像」『子どもたちのインターネット事件―親子で学ぶ情報モラル』東京書籍、2006年、128頁。ISBN 978-4487801213。
- ^ Schwartz, Oscar (2018年11月12日). “You thought fake news was bad? Deep fakes are where truth goes to die” (英語). The Guardian 2018年11月14日閲覧。
- ^ Roettgers, Janko (2018年2月21日). “Porn Producers Offer to Help Hollywood Take Down Deepfake Videos” (英語). Variety 2018年2月28日閲覧。
- ^ “It took us less than 30 seconds to find banned 'deepfake' AI smut on the internet” (英語) 2018年2月20日閲覧。
- ^ Kharpal, Arjun (2018年2月8日). “Reddit, Pornhub ban videos that use A.I. to superimpose a person's face over an X-rated actor”. CNBC 2018年2月20日閲覧。
- ^ “PornHub, Twitter Ban 'Deepfake' AI-Modified Porn” (英語). PCMAG 2018年2月20日閲覧。
- ^ 草野真一「メールはなぜ届くのか」講談社ブルーバックス、2014年5月20日発行、p.23。ISBN 978-4-06-257825-7
- ^ 「事例33 アイコラ画像」『子どもたちのインターネット事件―親子で学ぶ情報モラル』129頁。
- ^ 『朝日新聞』(大阪) 2007年9月7日
- ^ Hatachi, Kota. “日本人アイドルも被害に。96%がポルノ動画の「ディープフェイク」政治的な悪用も”. BuzzFeed. 2020年1月15日閲覧。
- ^ a b “「ディープフェイク職人」逮捕 AVの顔すり替えた容疑:朝日新聞デジタル”. 朝日新聞デジタル. 2022年6月3日閲覧。
- 1 アイドルコラージュとは
- 2 アイドルコラージュの概要
- 3 概要
- 4 関連項目
- アイコラのページへのリンク