Bonjour tout le monde j'ai une dissertation en français et sérieusement j'ai un peu du mal à comprendre cette question: "pensez vous que le roman ait intérêt à refléter la réalité telle qu'elle est, au point de ne rien dissimuler, même les vérités les plus choquantes ?" Merci d' avance.