Ouvert aux commentaires.
Quand on regarde des séries comme House of Cards, Real Humans, Black Mirror, Mr. Robot … on a le sentiment que le monde tel qu’il est vous y est cent fois mieux expliqué que dans les quotidiens, les magazines, les programmes d’info à la télé, les articles scientifiques, sur les bancs des écoles ou des facultés.
Est-ce banalement parce que les auteurs de série sont beaucoup mieux payés ?
Laisser un commentaire