La politique étrangère de la France, ou diplomatie française, est la politique menée par la France vis-à-vis des autres pays en vue de favoriser ses intérêts géostratégiques, politiques et économiques. L'histoire de la France est depuis très longtemps marquée par son influence sur le plan international.