A enfermagem é uma área da saúde que tem como objetivo cuidar e promover a saúde dos pacientes em diversos contextos, desde hospitais e clínicas até cuidados domiciliares. Historicamente, a enfermagem era considerada uma profissão predominantemente feminina, mas nos últimos anos, cada vez mais homens têm se interessado pela área e se tornando enfermeiros.