Salut !
Réponse un peu plus développé:
Le Freesync et G-sync (c'est la même technologie, sauf que chez NVIDIA c'est un supplément à 200 boules) ça permet, comme dit plus haut, d'éviter le déchirement de l'image lorsque ton GPU envoi un nombre d'image très différent du taux de rafraîchissement de l'écran. Dans un monde idéal il faudrait que le GPU envoi 60fps sur un écran 60Hz. Hors ce n'est presque jamais le cas, sauf si tu utilise la Synchro-Vertical (cette techno est néanmoins très déconseillé pour les shooter en ligne, car ça ajoute pas mal de latence).
Ces deux technos permettent tout simplement de modifier en temps réel le taux de rafraîchissement de l'écran, afin de correspondre aux taux de fps que ton GPU envoi.
Exemple: Tu joues à Overwatch sur un écran 144Hz, il y a plusieurs cas de figure:
-Ton GPU délivre 172fps: aucun soucis ton jeu est très réactif et ton écran a toujours une nouvelle image à afficher
-Ton GPU délivre 110fps: là ton écran se retrouve dans l'attente d'une nouvelle image, et sans Free-sync/G-sync tu pourras ressentir un manque de réactivité. Avec la Free-sync, l'écran s'ajuste automatiquement à 110Hz.
Même si ton framerate n'est pas constant, l'écran ajuste en temps réel sa fréquence de rafraîchissement.
Autre point positif, si tu es sur un laptop et que tu regardes un film (donc 24fps), l'ajustement de la fréquence de l'écran à 24Hz au lieu de 60Hz, va drastiquement réduire sa consommation énergétique. Donc ton laptop aura une meilleure autonomie.