Crunchez vos adresses URL
|
Rejoignez notre discord
|
Hébergez vos photos
Page 50 sur 77 PremièrePremière ... 40424344454647484950515253545556575860 ... DernièreDernière
Affichage des résultats 1 471 à 1 500 sur 2300
  1. #1471
    Citation Envoyé par Awake Voir le message
    @Dross, si l'offre tient toujours, je veux bien un super-upscale de cette image s'il te plaît ! Ca sera mon nouveau wallpaper sur mon écran UWHD
    Voilà ! Par contre ça mériterai des petites corrections (cf les fleurs en bas à gauche ou les oiseaux), y'a des petites aberrations.

  2. #1472
    Citation Envoyé par Dross Voir le message
    Voilà ! Par contre ça mériterai des petites corrections (cf les fleurs en bas à gauche ou les oiseaux), y'a des petites aberrations.
    Merci beaucoup !

    Je trouve la composition de cette image vraiment réussi, même si classique. Elle va faire un super wallpaper

  3. #1473
    Niveau composition il est quand même très fort en effet.

    Justement avec le pote MidJourney on est allés faire un peu de portrait en milieu urbex, il était en feu !










    Bon par contre, il m'a bien cassé les pieds avec les mains/yeux, en plan large il fait encore beaucoup d'horreurs.

    Les prompts sont des variations autour de celui là :

    close up urbex portrait, 35 years old woman, standing, mysterious::1 urbex background::1 glamorous, wearing a long dress, visible shoulders and back::1 8k, photorealistic::1 closed eyes::2 weird eyes, weird hands::-5 close up, 35mm, canon eos::2 --ar 2:3 --s 500 --v 5 --q 2
    Dernière modification par Dross ; 21/03/2023 à 07h01.

  4. #1474
    On dirait un screengrab d'une série HBO ^^

    J'avais lu que pour la photo, mettre "ultra detailed", "realistic" , "photorealistic" etc dans les prompts était plus dommageable qu'autre chose. Mettre l'objectif était recommandé (je m'y connais vraiment pas assez en photo pour savoir si "canon eos" est impactant).

    Quand tu mets "closed eyes::2 weird eyes, weird hands::-5", tu es sûr que "weird eyes" est weighted à -5 ?

  5. #1475
    L'objectif aide mais... c'est pas toujours respecté correctement, le 35mm ne se comporte pas toujours comme sur ses résultats. Pour le Canon EOS ça aide un peu, c'est aussi un peu du chauvinisme car c'est ma crèmerie depuis 15 ans.

    Oui la pondération négative ça marche bien, après dans ce cas c'était juste "au cas où" et ça semblait aider un peu, mais dans pas mal de cas c'est assez efficace. T'a aussi la pondération 0, y'a des gens qui signent leur prompt comme ça, ils mettent un titre/leur nom au départ en ::0.

    T'a aussi des cas où ça va complètement lui faire péter les plombs par contre, par exemple j'essayais de générer des vues de NYC sans la nouvelle One World Trade Center et... ça l'avais complètement cassé !

    photorealistic image of new-york city downtown + dark hour + bottom view + stunning + sky with a lot of stars + long exposure + canon eos 5DS::1 world trade center + empire state building::-1 --ar 1:3 --v 5



    Faudrait que je teste avec un seed pour le "ultra detailed", "realistic" , "photorealistic", perso j'ai souvent des trucs sympa, notamment avec "ultra detailed and intricated", mais une comparaison plus sérieuse serai intéressante.

  6. #1476
    Quitte a mettre des objectifs je regarderais avec du Leica ou du Zeiss
    Grand maître du lien affilié

  7. #1477
    Dans le prompting, faut surtout penser en terme de "quel est la quantité d'image qui a été trouvée avec ce contenu associé" plutôt que "la valeur réelle des choses", car c'est ça qui va avoir le plus d'importance.

    Mais tiens c'est une expérience intéressante, voyons voir si la marque / type d'appareil a un impact significatif :

    urban shot, made with an hasselblad --ar 3:4 --seed 1077277244 --v 5




    urban shot, made with an canon eos full frame --ar 3:4 --seed 1077277244 --v 5




    urban shot, made with an canon eos aps-c --ar 3:4 --seed 1077277244 --v 5




    urban shot, made with an leica telemetric --ar 3:4 --seed 1077277244 --v 5




    urban shot, made with a lumix bridge --ar 3:4 --seed 1077277244 --v 5



    Ah c'est intéressant tout ça. Pour ceux qui ne sont pas calé en photo, quelques détails de ces différents matériels :

    Hasselblad c'est le matériel le plus pro, marque associée au moyen format, c'est un capteur (ou une surface argentique) énorme ce qui permet un modelé particulier et des profondeurs de champs plus courte. Pour vous donner une idée, s'équiper avec ça c'est des budgets de plusieurs dizaines de milliers d'euro.
    Canon c'est la marque grand public, le full frame la partie plus pro (comptez plusieurs milliers d'euro pour le boîtier seul) l'APS-C le boîtier de monsieur tout le monde.
    Le Leica télémétrique, c'est l'appareil du reporter et du snob parisien, très bon pour des prises sur le vif mais aussi très cher donc encore très utilisé en argentique de seconde main qui se trouvent à prix plus réduit.
    Le bridge c'est l'appareil tout simple - relativement disparu avec l'arrivée de boîtier premier prix - un appareil tout en un qui ne coûte pas très cher, mais aux limitations techniques assez importantes en parti lié à son capteur très petit.

    C'est marrant car le hasselblad a donné des photos très droites, potentiellement issue d'objectif à décentrement et de qualité. Les Canon on sorti une image très très similaire en 3ème case, en noir et blanc toute les deux. Le full frame a donné 2 photo N&B alors que l'APS-C une seule (le full frame c'est équivalent à la taille des pellicules argentique que vous connaissez tous). Le leica n'a donné que du N&B ! Donc très influencé par ces photographes de N&B utilisant un télémétrique leica. Le leica a aussi sorti le cadrage le plus dynamique, probablement issue de son usage en reportage/photo de rue. Le bridge donne des photos sous les ponts, car ce sont les utilisateurs les moins riches du panel.

  8. #1478
    Tout à fait d’accord sur le "quel est la quantité d'image qui a été trouvée avec ce contenu associé". Aujourd’hui c’est ce qui est limitant, et qu’il faut donc prendre en compte avec quelques essais.

    Super tes comparatifs !

  9. #1479
    Citation Envoyé par Dross Voir le message
    Mais tiens c'est une expérience intéressante, voyons voir si la marque / type d'appareil a un impact significatif :
    Moi j'en retiens surtout qu'avec n'importe quel type d'appareil, c'est un bien meilleur photographe que moi, no questions asked

  10. #1480
    Je ne suis pas le bonhomme mais je suis tombé sur cette vidéo qui explique comment ces IA fonctionnent :



    Très intéressant et ça montre bien pourquoi elles ne copient pas les œuvres des artistes.

    Si vous voulez un résumé, les IA de type Stable Diffusion sont en fait entraînées à débruiter les images : en gros on leur donne des images auquel on rajoute du bruit aléatoire (original + 5% de bruit) pour qu'elles apprennent à restituer l'originale, puis on le fait ensuite par palier +10% => +5%; +15% => +10%; etc.

    Du coup on peux ensuite lui donner une image bruitée à 50% et en réappliquant l'IA plusieurs fois on peux l'amener à restituer l'image d'origine.

    L'astuce pour lui faire ensuite générer de nouvelles images (et pas juste débruiter) consiste à lui fournir une image 100% bruité, donc une image sans image originale, l'IA ""hallucine"" alors, y vois une image et la créer de toute pièce.

  11. #1481
    Citation Envoyé par Dross Voir le message

    Très intéressant et ça montre bien pourquoi elles ne copient pas les œuvres des artistes.
    Pousse ne serait-ce qu'un peut le raisonnement et tu verras que c'est faux, c'est tout l'inverse. Pars d'un data set réduit avec genre un arbre (dessiné basiquement sans feuille).

    Ce qu'on peut dire que ça va comprendre la structure fondamentale de l'arbre et deviner le principe de tronc et de branche, donc là où y'a du bruit, ça va générer une branche typique ou un tronc selon la position du bruit. Si tu pars avec des images qui n'ont que 3 couleurs (et qui respecte la théorie des couleurs), l'AI va apprendre la théorie des couleurs et générer des couleurs qui se mêlent bien ensemble. Ca extrait des features et ça les reproduit.

    Donc ça va clairement """voler""" ce qu'un artiste apprend après pas mal de temps (proportions du corps humain, etc.). C'est pas forcément mauvais, le terme voler n'est pas nécessairement le bon. Feature extraction est plus approprié. Mais effectivement ça veut dire potentiellement voler la gimmick de certains artistes, "leur trait", qu'ils ont passé du temps à explorer etc.

    C'est aussi typiquement pourquoi t'as des glitchs sur des détails, un lobe d'oreille c'est facile à completer avec un trou, c'est correct la majorité du temps, de même le concept de main c'est compliqué à comprendre, limité à 5 doigts, chacun avec sa forme, mais parfois y'a des cartoons avec 4 doigts, un poing, une main ouverte etc. Les cheveux c'est pareil, ça part de la racine, mais pour une AI t'auras pas forcément cette intelligence de capturer ça, et tu vois souvent des hallucinations de cheveux en l'air pas reliés à la racine, pour un arbre tu verras aussi souvent des feuilles ou des branches pas reliées. De même les feuilles de arbres n'appartiennent à aucune espèce, c'est la feuille moyenne.

    Pour l'IA c'est juste en gros juste une notion de distance avec les images correspondantes, comme un algo de morphing qui passe d'une image à une autre, plus la distance est courte plus le morphing est lisse. Donc quand tu génères un chat, sur x% de bruit, tu secoues simplement la machine, tu la "choques" pour qu'elle dévie des images initiales et elle fera tout pour réduire la distance et créer quelque chose qui pour elle est similaire.

    Donc typiquement si tu entraînes ton réseau pour reproduire une oeuvre en particulier, et que celle là, c'est une forme de compression et tu auras l'oeuvre plus ou moins à l'identique. Quand tu combines des oeuvres, l'IA combine les concepts.

    Le truc c'est que tu peux pas générer de nouveaux concepts avec ça, en tout cas pas des concepts en accord avec le jugement humain, y'a pas de création d'information à partir de rien, théorie de l'information de Shannon, entropie. Donc tu peux essayer de combattre ça en forçant de la créativité, le problème c'est que tu devras ensuite juger de cette créativité sinon ça sera purement chaotique et pas un apprentissage.

    Donc à partir d'un corpus donné le nombre de variations, le nombre de concepts, est limité à l'information dans le corpus

    Un autre exemple simple c'est les lettres, pour une AI, les lettres qu'elle produit sont valides car elles respectent la logique que les symboles utilisés pour les lettres respectent. La structure que l'IA génère est objectivement en accord avec les lettres existantes. Donc ça va inventer des symboles cohérent. Sauf que les humains ont décidé arbitrairement que certains symboles sont valides et pas d'autres, et de même pour faire des mots.

    Donc bref, je juge pas en faveur ou en défaveur de l'AI, et grosso modo avec le théorème d'approximation universel, il est sûr qu'on peut combler les défauts que j'ai cité au dessus (on aura dans un futur plus ou moins proche des textes corrects dans un truc comme midjourney), ça demande juste plus d’entraînement, plus de puissance de calcul.

    Maintenant les questions à se poser sont toujours les mêmes, quel intérêt ça a, transparence sur les corpus (qui sont les fournisseurs d'information et de concepts, sans ça y'a rien), les performances/la consommation associée est elle raisonnable.

    Donc tu peux nécessairement faire de la "reverse search" concept que j'avais évoqué y'a un bail, et retrouver des concepts du corpus. Par exemple pour simplifier tu pourras deviner si le concept d'arbre ou d'animal à 4 pattes fait partie du corpus, mais là on est sur un niveau d'extraction de features suffisamment élevé pour retrouver directement des oeuvres d'artistes connues (on avait déjà pris l'exemple de la Joconde ou de la jeune fille Afghane de National Geographic).

    Genre réfléchis juste à où proviens l'information quand y'a le "créer de toute pièce", ce qui est faux. L'information provient des poids, donc l'image d'origine est plus ou moins stockée sous forme de poids. Et avec le théorème d'approximation universelle on sait très bien qu'on pourrait stocker exactement l'image d'origine, parfaitement, sous cette forme. Sauf que ça serait trop coûteux et pas très intéressant visuellement.

    Donc maintenant quand tu ajoutes à ça un système de prompt c'est là où on peut parler un peu de vol car si tu veux ça peut indexer des oeuvres et les ressortir au final selon l’entraînement. Je dis pas que c'est ce qui est fait mais on voit clairement avec l'absence de corpus clair et des oeuvres très similaires aux oeuvres d'origine que y'a pas ce souci d'éviter le "vol". Et l'IA n'a pas ce concept non plus. La moindre des choses seraient de créditer les artistes du corpus quoi, ça me parait évident. Et ça coûte RIEN.

    Donc y'a aussi la notion de signal bruité et de correction par le cerveau. Les images c'est parfait pour ça, un peu de bruit ne dérange pas trop, à moins d'analyser en détail. Un mec qui tient une tasse y'aura souvent un problème au point de contact car y'a "collision" dans la génération entre la génération d'une main et la génération d'une tasse, d'ou les glitchs un peu fusionnés.
    Dernière modification par Anonyme20240202 ; 23/03/2023 à 00h37.

  12. #1482
    TL;DR Feature extraction sur un corpus, c'est extraire toute la valeur du corpus. Bien ou mal c'est pas le sujet du post, mais on voit la différence entre feature extraction d'un corpus artistique et feature extraction de bâtiments instables pour détecter un bâtiment qui va s'écrouler par exemple. Y'a un cas ou on apprend quelque chose d'assez univoque et utile directement. Dans l'autre c'est plus flou (on en apprend plus sur les images qui plaisent à l'oeil humain, cf. les affiches de cinéma et la coloration bleu/orange dans les films), et c'est normal de s'interroger sur l'éthique du truc surtout sans corpus publique et sans détails sur l'implémentation. Encore une fois on peut stocker une image dans un réseau de neurone, théorème d'approximation universel. Bien sûr c'est pas ce qui est fait, mais ça donne l'idée

  13. #1483
    Citation Envoyé par Awake Voir le message
    Mon dieu...

    ...
    Mais bordel c'est génial ! Haha je me remet pas de celle avec le collier de fleur j'ai envie de m'en faire un photo de profil, haha !

    Au passage très intéressant tes recherches et explications Dross, c'est vraiment sympas à suivre.
    Dernière modification par Elma ; 23/03/2023 à 01h20.
    Citation Envoyé par Big Bear Voir le message
    [...] je suis fier d'avoir consacré autant à Genichiro, et pas aux gnomes voleurs de slip de la AAA next gen et du hipsterisme communautarisant débridé des jeux pour néo-fragiles de Twitter.

  14. #1484
    Citation Envoyé par Kamikaze Voir le message
    Pousse ne serait-ce qu'un peut le raisonnement et tu verras que c'est faux, c'est tout l'inverse. Pars d'un data set réduit avec genre un arbre (dessiné basiquement sans feuille).

    Ce qu'on peut dire que ça va comprendre la structure fondamentale de l'arbre et deviner le principe de tronc et de branche, donc là où y'a du bruit, ça va générer une branche typique ou un tronc selon la position du bruit. Si tu pars avec des images qui n'ont que 3 couleurs (et qui respecte la théorie des couleurs), l'AI va apprendre la théorie des couleurs et générer des couleurs qui se mêlent bien ensemble. Ca extrait des features et ça les reproduit.

    Donc ça va clairement """voler""" ce qu'un artiste apprend après pas mal de temps (proportions du corps humain, etc.). C'est pas forcément mauvais, le terme voler n'est pas nécessairement le bon. Feature extraction est plus approprié. Mais effectivement ça veut dire potentiellement voler la gimmick de certains artistes, "leur trait", qu'ils ont passé du temps à explorer etc.
    Quand on utilise le mot "voler" c'est qu'on sous-entends que ce sont des collages empruntés à des œuvres, comme des plagiats ou des œuvres dérivées, alors qu'on est clairement devant un algorithme qui "apprends" et qui restitue avec sa propre compréhension : via les statistiques qu'il en a déduit.

    C'est en ce sens là, du fait qu'on est dans une transformation observation => algorithme => nouvelle images que je dis qu'il n'y a pas de vol, à moins de considérer (ce qui est un certain point de vu artistique) que toute influence est un vol, et qu'en tant qu'artiste on ne fait que voler et emprunter à ceux qui nous ont précédés ; alors cette position n'est pas fausse (je la trouve d'ailleurs assez élégante et suis assez d'accords avec) mais ce n'est clairement pas ce que les détracteurs de ces IA ont en tête quand ils disent qu'il y a vol du travail des artistes.


    Citation Envoyé par Kamikaze Voir le message
    Donc tu peux nécessairement faire de la "reverse search" concept que j'avais évoqué y'a un bail, et retrouver des concepts du corpus. Par exemple pour simplifier tu pourras deviner si le concept d'arbre ou d'animal à 4 pattes fait partie du corpus, mais là on est sur un niveau d'extraction de features suffisamment élevé pour retrouver directement des oeuvres d'artistes connues (on avait déjà pris l'exemple de la Joconde ou de la jeune fille Afghane de National Geographic).
    Bien sûr qu'il faut que certains concepts soient présents, tu ne peux pas créer de chat si tu n'en a jamais soumis et tagué tel quel. Mais ce n'est pas un problème en tant que tel.

    Et pour les exemples de la Joconde et de la photo de Steve McCurry, ce sont des icônes pop qui ont été reproduites de nombreuses fois, sur tout les supports et de toutes les manières (j'ai même un restaurant près de chez moi qui a le portrait en question en murale sur sa devanture, c'est dire !), c'est pour ça que tu arrive à avoir "un truc qui ressemble" en sortie : non pas car tu arrive à faire "une reverse search" comme tu le prétends, mais car le corpus a fini par les présenter comme des entités : comme un chat, ou un arbre.
    Dernière modification par Dross ; 23/03/2023 à 02h08.

  15. #1485
    Citation Envoyé par Elma Voir le message
    Mais bordel c'est génial ! Haha je me remet pas de celle avec le collier de fleur j'ai envie de m'en faire un photo de profil, haha !
    Pas une bonne idée sur le forum CPC mais oui, j'ai bien rigolé du visage aussi.
    Pas de signature.

  16. #1486
    Citation Envoyé par Zepolak Voir le message
    Pas une bonne idée sur le forum CPC mais oui, j'ai bien rigolé du visage aussi.
    Oui t'inquietes pas, c'etais pas pour ici, mais meme autre part je suis pas sure d'assumer. Mais tres drole, et le réalisme est bluffant.
    Puis je l'aime bien mon iroquois.
    Citation Envoyé par Big Bear Voir le message
    [...] je suis fier d'avoir consacré autant à Genichiro, et pas aux gnomes voleurs de slip de la AAA next gen et du hipsterisme communautarisant débridé des jeux pour néo-fragiles de Twitter.

  17. #1487
    Citation Envoyé par Dross Voir le message
    Blah
    On va prendre un autre exemple

    Dans beaucoup de prompts que vous faites, vous utilisez parfois directement le nom de l'artiste. Par exemple "Zdzisław Beksiński". (Ce qui montre bien que mentalement vous fonctionnez en terme de reverse search pour combiner des concepts entre eux)

    Maintenant imagine que je train un réseau de neurone avec un corpus uniquement constitué d'images de cet artiste (pour simplifier mais ça se généralise).

    Si je demande ensuite au réseau de générer une image, sans jamais évoquer le nom de l'artiste, uniquement des trucs genre "une statue d'un homme assis", elle aura bien sûr des traits très similaire à l'artiste n'est ce pas? Elle va copier les couleurs, les formes etc.

    Maintenant si je publie l'image, et que les gens font "wow, magnifique ce concept, elle est forte cette IA". Si tu n'es pas transparent sur l'artiste utilisé dans le corpus, tu trouves ça éthique ou pas? T'aurais pas aimé savoir que la beauté des images en question, provient en l'occurrence principalement du même artiste? Dans ce modèle hypothétique avec un seul artiste?

    Donc c'est pareil pour toutes les images que vous générez, tu trouveras certaines images belles et tu pourras passez à côté du fait que ce qui te plait dans l'image provient de tel ou tel artiste.

    On a littéralement un exemple dans les pages d'avant. Awake fait une prompt avec cet artiste, pour moi c'était évident sans même voir la prompt quel artiste c'était, un canard trouve ça joli et demande quelle est la prompt, pourquoi? Pour retrouver une "source" à l'image.

    Je pense que vous êtes un peu mystifiés car vous pensez trop aux images en terme de pixels, comme un humain normal, si vous regardez un algo de compression comme le jpeg, ou d'autres trucs de computer vision, vous verrez qu'une image ça se visualise autrement que ce qu'on fait naturellement via nos sens. Du coup le résultat final vous parait plus impressionnant qu'il ne l'est. L'IA exploite tous ces concepts pour produire des images agréables à l'oeil, à travers le prisme des artistes du corpus. C'est joli et intéressant à voir, mais à vous lire on dirait que l'existence du corpus est un détail et que ce qui compte c'est la "magie" du réseau avant tout.

    Le truc encore une fois c'est que ça coûterait très peu de sourcer d'avantage. Sans non plus aller dans l'extrême d'explainable AI qui serait très coûteux mais où la reverse search existerait littéralement, sans discussion possible. Sauf que toute AI est partiellement explainable, c'est un spectre cette notion, s'pas binaire.
    Dernière modification par Anonyme20240202 ; 23/03/2023 à 05h55.

  18. #1488
    Citation Envoyé par Dross Voir le message
    Le bridge donne des photos sous les ponts, car ce sont les utilisateurs les moins riches du panel.
    N'empêche c'est très con. Un humain lambda aurait compris que tu parlais de l'appareil photo pas d'un pont.
    Mon avis est de plus en plus négatif sur ces générateurs d'images, au fur et à mesure qu'elles s'améliorent. Et faut voir la courbe d'évolution qui est juste énorme entre les premiers prompts du début du topic et maintenant.

  19. #1489
    Citation Envoyé par deathdigger Voir le message
    N'empêche c'est très con. Un humain lambda aurait compris que tu parlais de l'appareil photo pas d'un pont.
    Mouais.

    J'ai la démonstration tous les putains de jours que des êtres humains dotés de cerveaux à priori supérieurs à la moyenne ne comprennent pas des choses pourtant évidentes pour d'autres cerveaux.

    Donc mouais.

    J'ai l'impression qu'on attends des IA bien plus qu'on n'attend d'humains lambada dirladada.
    Pas de signature.

  20. #1490
    Citation Envoyé par Kamikaze Voir le message
    On va prendre un autre exemple

    Dans beaucoup de prompts que vous faites, vous utilisez parfois directement le nom de l'artiste. Par exemple "Zdzisław Beksiński". (Ce qui montre bien que mentalement vous fonctionnez en terme de reverse search pour combiner des concepts entre eux)

    Maintenant imagine que je train un réseau de neurone avec un corpus uniquement constitué d'images de cet artiste (pour simplifier mais ça se généralise).

    Si je demande ensuite au réseau de générer une image, sans jamais évoquer le nom de l'artiste, uniquement des trucs genre "une statue d'un homme assis", elle aura bien sûr des traits très similaire à l'artiste n'est ce pas? Elle va copier les couleurs, les formes etc.

    Maintenant si je publie l'image, et que les gens font "wow, magnifique ce concept, elle est forte cette IA". Si tu n'es pas transparent sur l'artiste utilisé dans le corpus, tu trouves ça éthique ou pas? T'aurais pas aimé savoir que la beauté des images en question, provient en l'occurrence principalement du même artiste? Dans ce modèle hypothétique avec un seul artiste?

    Donc c'est pareil pour toutes les images que vous générez, tu trouveras certaines images belles et tu pourras passez à côté du fait que ce qui te plait dans l'image provient de tel ou tel artiste.

    On a littéralement un exemple dans les pages d'avant. Awake fait une prompt avec cet artiste, pour moi c'était évident sans même voir la prompt quel artiste c'était, un canard trouve ça joli et demande quelle est la prompt, pourquoi? Pour retrouver une "source" à l'image.

    Je pense que vous êtes un peu mystifiés car vous pensez trop aux images en terme de pixels, comme un humain normal, si vous regardez un algo de compression comme le jpeg, ou d'autres trucs de computer vision, vous verrez qu'une image ça se visualise autrement que ce qu'on fait naturellement via nos sens. Du coup le résultat final vous parait plus impressionnant qu'il ne l'est. L'IA exploite tous ces concepts pour produire des images agréables à l'oeil, à travers le prisme des artistes du corpus. C'est joli et intéressant à voir, mais à vous lire on dirait que l'existence du corpus est un détail et que ce qui compte c'est la "magie" du réseau avant tout.

    Le truc encore une fois c'est que ça coûterait très peu de sourcer d'avantage. Sans non plus aller dans l'extrême d'explainable AI qui serait très coûteux mais où la reverse search existerait littéralement, sans discussion possible. Sauf que toute AI est partiellement explainable, c'est un spectre cette notion, s'pas binaire.
    En faite ça devrait même être la norme de publier le corpus d’entraînement et je rajouterais même de le mettre en open data si possible .
    C'est comme si tu construisais une maison mais que tu refusais de dire en quoi elle est faite.
    "Les faits sont têtus."


  21. #1491
    Citation Envoyé par Kamikaze Voir le message
    Dans beaucoup de prompts que vous faites, vous utilisez parfois directement le nom de l'artiste. Par exemple "Zdzisław Beksiński". (Ce qui montre bien que mentalement vous fonctionnez en terme de reverse search pour combiner des concepts entre eux)
    Ce que tu appelle "reverse search" ici s'appelle le style, et l'inspiration que l'on peux tirer du style des autres.

    Quand on utilise dans les prompt "by X", ça sous entends "dans le style de X" (vu que X n'a jamais produit une telle image). Et dans la production artistique tout le monde s'inspire des styles des autres, parfois en faisant évoluer le truc vers d'autres horizons mais parfois c'est vraiment du même niveau que MidJourney. Et pourtant tu ne vois pas dans les musées ou les galeries la liste généalogique des styles et influences qui ont amenés à l’œuvre.

    Un artiste peux en parler certes, mais un utilisateur de MJ aussi.


    Et tu évacue un peu vite les prompts qui utilisent de multiples artistes - qui sont de loin les pratiques les plus efficaces - qui démontrent bien qu'on parle de style (et de leur combinaison) et non pas juste de plagiat, vu que ces artistes n'ont jamais fait de collaboration de ce type.



    Sinon je ne suis pas mystifié, non, par contre je pense que tu a une vision restreinte du monde de l'art, comme si 1 style n'était trouvable que dans 1 artiste (lol no) et que ce dernier en était le détenteur suprême ensuite. Alors que tout ça est extrêmement organique avec des frontières très floues, et ce bien avant l'arrivée des IA.

    Après que ça amplifie certains problèmes, là ok. Mais sinon...




    Citation Envoyé par deathdigger Voir le message
    N'empêche c'est très con. Un humain lambda aurait compris que tu parlais de l'appareil photo pas d'un pont.
    Mon avis est de plus en plus négatif sur ces générateurs d'images, au fur et à mesure qu'elles s'améliorent. Et faut voir la courbe d'évolution qui est juste énorme entre les premiers prompts du début du topic et maintenant.
    C'est un outil, pas un truc sentient, ça me choque pas plus que ça.

  22. #1492
    Citation Envoyé par Elma Voir le message
    Mais bordel c'est génial ! Haha je me remet pas de celle avec le collier de fleur j'ai envie de m'en faire un photo de profil, haha !

    .
    Citation Envoyé par Zepolak Voir le message
    Pas une bonne idée sur le forum CPC mais oui, j'ai bien rigolé du visage aussi.

    J'ai pris Macron parce qu'on a forcément énormément de photo HD de lui dans le corpus d'entraînement et donc des résultats excellents. (j'ai essayé Depardieu par exemple, c'est pas ça). Sans même penser que ça pouvait être à un moment très tendu politiquement car je me tiens volontairement extrêmement éloigné des infos.

    Bref je n'ai jamais eu l'intention de mettre de l'huile sur le feu, mais clairement le timing était pas bon - d'ailleurs j'ai essayé de les poster sur le reddit fr dans la soirée, je me suis fait downvoté comme un malpropre.

  23. #1493
    Citation Envoyé par Awake Voir le message
    d'ailleurs j'ai essayé de les poster sur le reddit fr dans la soirée, je me suis fait downvoté comme un malpropre.
    Ben apparemment le mec qui avait fait les fakes sur Trump (les arrestations) dont une partie avait été fini sur le topic des USA s'est ensuite fait ban de midjourney (en tout cas c'est ce qu'il a écrit sur Twitter).

    Donc clairement, la pratique semble borderline
    Pas de signature.

  24. #1494
    Les fakes se sont surtout retrouvés dans tout les médias qui ont ensuite présenté MJ comme "générateur d'images à fake news", pas une très bonne pub.

    Ça serai resté confidentiel je ne pense pas qu'ils auraient réagi.

  25. #1495
    Bon j'ai viré le message, j'ai pas envie de prendre le risque du ban dans 6 mois parce que quelqu'un tombe dessus et fait un signalement à MidJourney.

    On peut plus rien faire tranquille, même des fake news

  26. #1496
    Ils risquent de resserrer la vis en plus, vu que ça a donné des idées aux gens maintenant : je viens de voir une série de Will Smith qui donne des baffes à la caméra sur reddit.

  27. #1497
    Quelques essais pour tester la création de pochettes d'album de black metal : le prompt tourne autour du "black metal album cover, foggy forest --no medieval, weapon"






  28. #1498
    Citation Envoyé par Awake Voir le message
    On peut plus rien faire tranquille, même des fake news
    En +, c'est quand même un peu le principe de ces IA, inventer des trucs qui n'existent pas.
    Moi je me suis fait une série de fonds d'écran de phoques sur une plage de Tahiti. Pour le coup, je m'inquiète de ce que je peux risquer désormais.
    Quelle inconscience de notre part ! On pourra dire qu'on l'aura bien cherchée la case prison !

  29. #1499
    Citation Envoyé par Awake Voir le message
    Bon j'ai viré le message, j'ai pas envie de prendre le risque du ban dans 6 mois parce que quelqu'un tombe dessus et fait un signalement à MidJourney.

    On peut plus rien faire tranquille, même des fake news
    Ah merde, j'aurais dû DL les images avant de faire ma remarque. Elles sont mortes où y a moyen que tu me les file par MP ?
    Pas de signature.

  30. #1500
    Faiseur d'opinion personnelle Avatar de Goji
    Ville
    3<-
    Carrément, celle où le prez porte un t-shirt de foncedé c'était un banger (comme disent les djeunz).


    Rien à voir, je serais assez curieux de voir la version d'une I.A. de la fameuse île des morts* ! Sera-t-elle vraiment créative, ou se contentera-t-elle de ressortir intégralement ou en partie l'une des nombreuses versions existantes ?

    * ALT236 en a fait un excellent épisode.
    Dernière modification par Goji ; 25/03/2023 à 08h16.
    BigRockTribe Streaming de musique Rock, Post-Rock et Metal.
    Une novella médiévale et fantastique disponible sur Kobo et sur Amazon.

Règles de messages

  • Vous ne pouvez pas créer de nouvelles discussions
  • Vous ne pouvez pas envoyer des réponses
  • Vous ne pouvez pas envoyer des pièces jointes
  • Vous ne pouvez pas modifier vos messages
  •