Os Direitos do Trabalho são uma série de leis e acordos que tem como objetivo estabelecer os direitos dos trabalhadores de todas as profissões. Estas normas, no Brasil, estão regidas pela CLT (Consolidação das Leis do Trabalho), Constituição Federal e várias Leis Esparsas (como a lei que define o trabalho do estagiário, dentre outras) e visam melhorar as relações empregado-empregador, principalmente na ordem socioeconômica; fazendo com que seja tudo mais civilizado e democrático.
Esse conjunto de leis dita desde as normas de contratação até o procedimento para quem vai sair do trabalho, como o que você tem direito quando é demitido. Ele estabelece o número mínimo de folgas, dia que o trabalhador tem que receber o pagamento, seguro-desemprego, etc.
Stella Fumis - n 32
Nenhum comentário:
Postar um comentário