Pourquoi les samouraïs noircissaient-ils volontairement leurs dents ?
Si avoir les dents blanches a toujours été le signe d’une bouche en bonne santé sous nos latitudes, ce n’est pas le cas pour certaines civilisations. En effet, au Japon, les samouraïs, les jeunes filles et les femmes aisées se noircissaient les dents intentionnellement.