O racismo nos Estados Unidos existe desde 1400, começando quando colonos europeus começaram a colonizar a América. Os europeus, em sua busca para "civilizar" as pessoas, começaram a tomar escravos e a tratar pessoas com aparência diferente deles como inferiores.
Os primeiros atos racistas aconteceram contra o povo nativo americano. Quando os europeus desembarcaram na América, eles conquistaram os índios em guerras e massacres. Os que ficaram vivos sofreram com tratados forçados, restrições alimentares e confisco de terras. Os colonos europeus tentaram forçar o cristianismo aos nativos americanos, e aqueles que não se conformaram com frequência foram punidos.
Os afro-americanos têm sido o foco do racismo desde que os primeiros colonos ingleses se estabeleceram na Virgínia. Eles foram tomados como escravos e muitas vezes espancados, mortos de fome e tratados como animais.