{{statusText}}
{{statusText}}
jq80107

Is it mandatory to have health insurance in United States?


Note: {{noteText}}
{{noteText}}
 
 
  •  
  •  
  •  
Answered by Kelly Jones
0 Upvotes

It is not mandatory to have health insurance in United States but if an individual who can afford  
health insurance but choose not to buy then he/she must pay a fee called individual shared 
responsibility payment. It is also referred to as penalty, fine or individual mandate.   
 
jca68703
Note: {{noteText}}
{{noteText}}
Written 3 years ago
 
 
  •  
  •  
  •  
Scroll Down