La coopération est obligatoire s'il y a une base légale pour justifier cette demande, que ce soit dans le pays d'origine de la demande, ou du siège de l'entreprise (en passant par une une commission rogatoire dans ce cas). Il y a également des conventions comme la Convention sur la cybercriminalité de Budapest qui abordent la question de la coopération volontaire entre services privés et public, mais ça ne va pas toujours de soit. Il suffit de voir l'affaire d'Apple contre le FBI concernant le déblocage des smartphones des auteurs de la tuerie de San Bernardino.
Ici c'est plus compliqué car on ne parle pas d'une demande spécifique du pouvoir judiciaire. On est dans le cas où les organisations privées doivent contrôler leurs propres contenus.
S'il y a une pression politique et populaire pour lutter contre la pédopornographie, seuls les fournisseurs de services ont accès au contenu partagé entre les utilisateurs (les fournisseurs de télécommunications ne voient rien passer puisque la plupart des applications de communication sont chiffrées). Le simple fait de dire que certains contenus sont contraires à leurs chartes n'est souvent pas suffisant du point de vue législatif. Ils doivent donc mettre en place un service minimal pour lutter contre ce phénomène mais ne peuvent pas juger du caractère illicite d'une image (pédopornographie ou pornographie? tendancieux ou illégal?) car ils n'ont pas la compétence juridique de le faire. Par conséquent, autant s'appuyer sur le (pénible) travail des forces de l'ordre en se basant sur les hash d'images qui ont été cataloguées comme illicites. Les compagnies comme Apple ou Facebook ont tout intérêt à intégrer ces initiatives car elles n'ont pas besoin d'engager du personnel qui va devoir monitorer ces images, ni de créer de coûteux algorithmes qui se planteront la plupart du temps.