O que significa a palavra vacinar?

A palavra “vacinar” significa introduzir uma vacina no corpo para produzir imunidade a uma doença. As vacinas são preparações biológicas que proporcionam imunidade adquirida ativa contra uma doença. Geralmente são feitos de formas enfraquecidas ou mortas do organismo causador da doença ou de partes do organismo. Quando uma vacina é introduzida no corpo, o sistema imunológico responde produzindo anticorpos contra a doença. Esses anticorpos ajudam o corpo a combater a doença caso seja exposto a ela no futuro.