Crunchez vos adresses URL
|
Rejoignez notre discord
|
Hébergez vos photos
Page 136 sur 215 PremièrePremière ... 3686126128129130131132133134135136137138139140141142143144146186 ... DernièreDernière
Affichage des résultats 4 051 à 4 080 sur 6424
  1. #4051

  2. #4052
    Citation Envoyé par Getz Voir le message
    Comme Sarcophage ?

  3. #4053
    Ah ben ça va, c'est pas sordide comme news.
    How can I be lost, if I've got nowhere to go?

  4. #4054
    Non. ça devrait même être un droit inaliénable.

  5. #4055
    Le droit de mourir dans la dignité oui. Il n'empêche que ça me met mal à l'aise de confier ça à une I.A., et que ça me fait forcément cogiter sur les suicidés que j'ai connu, ce que ça aurait changé si ils avaient utilisé ça plutôt que ce qu'ils ont fait, le ressenti des proches à qui on aurait dit qu'ils ont préféré en parler à une machine qui a décidé que c'était ok de les laisser partir...
    Je trouve ça un peu lourd pour un topic habituellement de golerie où on poste des titres à base de "Ivre, il...". Après c'est que mon ressenti, si c'est ok pour tout le monde je ferme ma gueule et je vous laisse en rire hein.
    How can I be lost, if I've got nowhere to go?

  6. #4056
    Citation Envoyé par Freddy Sirocco Voir le message
    Comme Sarcophage ?
    J'avais autre chose en tête, mais oui ça doit être l'idée de base... Rabat-joie...

    L'idée est sordide, la news beaucoup moins quand même. C'est un sujet de société qui n'a rien de sordide selon moi. Le fait de vouloir en faire une machine, un peu plus oui, mais on est d'ccord que ce n'est qu 'un projet qui ne verra jamais le jour, en tout cas je l'espère

  7. #4057
    Oui (avec ExPanda), c'est ce que je me suis dit en lisant la news. C'est plutôt intéressant comme alternative à des soins long et pénibles dans un hôpital... L'idée de pouvoir mettre ton caisson ou tu veux avant de partir c'est une vraiment une bonne idée pour aider à faire ses adieux en paix.
    C'est un peu délicat comme sujet, mais je ne vois pas en quoi c'est pourri.

  8. #4058
    mais je ne vois pas en quoi c'est pourri.
    Ben justement :

    Les news les plus pourries et les moins sordides du web.
    Citation Envoyé par scie_sauteuse
    (pas de vulgarité, tout ça)

  9. #4059
    Oui, c'est quelque chose qui devrait être autorisé, mais sous contrôle. Là, aller dans la cabine, blablablater avec l'ordinateur et clamser, ça me paraît un peu extrême. Et surtout après, qui récupère le corps et tout ça ?
    Un écrivain qui se livre, c'est un peu comme un canard qui se confie.

  10. #4060
    La famille, après avoir reçu la nouvelle dignement plutôt qu'en découvrant leur proche sur le sol à la maison ? L'entreprise qui procède au transport jusqu'au service funéraire souscrit si pas de famille ?

    Je comprends que ça soit controversé, mais l'accès à la fin de vie devrait être libre. Aucun humain n'a le droit de le refuser ou de le forcer.

  11. #4061
    Citation Envoyé par snot Voir le message
    La famille, après avoir reçu la nouvelle dignement plutôt qu'en découvrant leur proche sur le sol à la maison ? L'entreprise qui procède au transport jusqu'au service funéraire souscrit si pas de famille ?

    Je comprends que ça soit controversé, mais l'accès à la fin de vie devrait être libre. Aucun humain n'a le droit de le refuser ou de le forcer.
    Il l'est. Personne n'empêche quiconque de se suicider.

  12. #4062
    Faut encore le pouvoir, si l'état physique ne le permet pas.

    Moi je sais que je n'aurais pas de problème si un jour m'en prend l'envie (non hein, j'ai pas dit que j'allais me foutre en l'air, paniquez pas ^^ ), overdose d'insuline et c'est réglé, mais c'est pas le cas de tout le monde sinon il n'y aurait pas autant de demandes pour un moyen de partir en paix.
    Un écrivain qui se livre, c'est un peu comme un canard qui se confie.

  13. #4063
    Citation Envoyé par Cassin Voir le message
    Faut encore le pouvoir, si l'état physique ne le permet pas.

    Moi je sais que je n'aurais pas de problème si un jour m'en prend l'envie (non hein, j'ai pas dit que j'allais me foutre en l'air, paniquez pas ^^ ), overdose d'insuline et c'est réglé, mais c'est pas le cas de tout le monde sinon il n'y aurait pas autant de demandes pour un moyen de partir en paix.
    Oui, dans le cas d'une incapacité totale, ça se comprend.

    Mais ca me semble surtout un moyen de faire faire le taf à une autre personne (d'où le recours à l'IA), comme si le fait de demander à mourir par la main d'un tiers était moins violent que celui de se donner la mort volontairement. C'est sans doute le cas psychologiquement pour ceux qui restent, mais en intention on est au même niveau.

  14. #4064
    Citation Envoyé par ExPanda Voir le message
    Il n'empêche que ça me met mal à l'aise de confier ça à une I.A.,
    Hein mais que quoi ?!?

    Tu vois un truc qui ressemble vaguement à un machin futuriste et tu penses Intelligence Artificielle ?

    Citation Envoyé par Seymos Voir le message
    (d'où le recours à l'IA)
    Bon.
    Dénoncez-vous.

    Vous en savez plus que moi & l'article posté ici sur cette chose.
    Pas de signature.

  15. #4065
    Le principe de Sarco repose sur deux innovations. La première consiste à se passer des médecins, aussi bien chargés d'évaluer l'état mental de la personne souhaitant mettre fin à ses jours que d'administrer le pentobarbital à dose léthale. Avec cette capsule, Nitschke souhaite que l'intelligence artificielle prenne le relai, en évaluant la capacité mentale de la personne à mourir, et que le concerné prenne lui-même son destin en main. Le directeur d'Exit International songe également à un test en ligne, délivrant potentiellement un code d'accès pour prendre place dans Sarco.
    Perso moi ça me va très bien l'IA pour assister le monde médical en général: je suis confronté à la recherche de diagnostic pour un proche qui ne va pas bien depuis plusieurs mois. C'est un peu la loterie: plusieurs semaines, voir mois, avant d'avoir un rdv, puis une liste d'examens au pifomètre/intuition selon le docteur/spécialiste, chacun cherchant en fonction de son expérience et de sa formation avec un nombre de paramètres assez grand. C'est évident qu'un humain, aussi brillant soit-il va passer à côté de certains éléments. Si une IA pouvait épaulé le docteur en analysant les symptômes et en croisant avec les résultats d'analyse je suis persuadé qu'avoir un diagnostic serait plus rapide et plus efficace... Il y a quelques années il me semble bien qu'une IA avait d'ailleurs brillamment réussis un concours de médecine en chine.

    Pour la "cabine à suicide", ça ne me choque pas que la machine soit pilotée par une IA: ça n'empêche pas d'être entouré et on ne parle pas d'un photomaton au niveau du processus.

    Vite des news pourries et pas sordides
    Dernière modification par William Vaurien ; 07/12/2021 à 08h31.

  16. #4066
    Ah ben je suis officiellement débile.

    Pas de signature.

  17. #4067
    Citation Envoyé par Zepolak Voir le message
    Ah ben je suis officiellement débile.

    Tu as déjà eu la réponse pour la nationalité australienne ?

  18. #4068
    Tu es fatigué c'est tout, le décalage horaire.
    How can I be lost, if I've got nowhere to go?

  19. #4069
    Citation Envoyé par Seymos Voir le message
    Tu as déjà eu la réponse pour la nationalité australienne ?
    C'est peut-être un élément positif pour, qui sait

  20. #4070
    Citation Envoyé par Zepolak Voir le message
    Ah ben je suis officiellement débile.

    Citation Envoyé par Seymos Voir le message
    Tu as déjà eu la réponse pour la nationalité australienne...
    ftfy

  21. #4071
    Citation Envoyé par Zepolak Voir le message
    Ah ben je suis officiellement débile.

    Oui et non, c'est pas que l'IA décide si tu te suicide ou pas, c'est qu'elle évalue si elle déclenche le processus. Or une personne qui rentre là dedans c'est pour se suicider, donc l'IA ne peut dans les fait que l'en empêcher (ou valider sa décision).
    Envoyé depuis mon Motorola StarTac et Netscape Mail 5.23

  22. #4072
    Citation Envoyé par theclaw Voir le message
    Oui et non, c'est pas que l'IA décide si tu te suicide ou pas, c'est qu'elle évalue si elle déclenche le processus. Or une personne qui rentre là dedans c'est pour se suicider, donc l'IA ne peut dans les fait que l'en empêcher (ou valider sa décision).
    Installe ça dans Paris et la machine est transformée en pissotiere au bout de 3 jours
    Citation Envoyé par TreeShepherd Voir le message
    Cherchez pas on l'a trouvé : pipoop !Il est l'élu ! Le néo du grille pain, le Jesus du transfo !

  23. #4073
    Citation Envoyé par pipoop Voir le message
    Installe ça dans Paris et la machine est transformée en pissotiere au bout de 3 jours
    Pourquoi attendre 3 jours ?
    Envoyé depuis mon Motorola StarTac et Netscape Mail 5.23

  24. #4074
    Citation Envoyé par Seymos Voir le message
    Il l'est. Personne n'empêche quiconque de se suicider.
    Il y a encore des pays où c'est illégal et dans de nombreux autres c'est illégal d'être assisté pour son suicide.

  25. #4075
    Citation Envoyé par William Vaurien Voir le message
    Perso moi ça me va très bien l'IA pour assister le monde médical en général: je suis confronté à la recherche de diagnostic pour un proche qui ne va pas bien depuis plusieurs mois. C'est un peu la loterie: plusieurs semaines, voir mois, avant d'avoir un rdv, puis une liste d'examens au pifomètre/intuition selon le docteur/spécialiste, chacun cherchant en fonction de son expérience et de sa formation avec un nombre de paramètres assez grand. C'est évident qu'un humain, aussi brillant soit-il va passer à côté de certains éléments. Si une IA pouvait épaulé le docteur en analysant les symptômes et en croisant avec les résultats d'analyse je suis persuadé qu'avoir un diagnostic serait plus rapide et plus efficace... Il y a quelques années il me semble bien qu'une IA avait d'ailleurs brillamment réussis un concours de médecine en chine.
    C'est un des objectif d'IBM avec Watson : https://www.ibm.com/fr-fr/watson-health

    Citation Envoyé par Seymos Voir le message
    Il l'est. Personne n'empêche quiconque de se suicider.
    Hum, c'est un peu plus compliqué que ça (et heureusement vu le sujet).
    C'est la faute à Arteis

  26. #4076
    Je crois qu'IBM a du mal avac Watson...
    Après l'intégration de l'Urban Dictionary dans son vocabulaire, Watson a été incapable de distinguer le langage soutenu de l'argot : il mettait souvent le mot « bullshit » (« connerie ») en réponse à une demande de recherche. Il aurait aussi pris la « mauvaise habitude » de lire Wikipédia14
    En plus sérieux et récent, ici (2021), https://www.nytimes.com/2021/07/16/t...bm-watson.html, on peut lire que Watson est très couteux et n'atteint pas les objectifs, qu'IBM pense s'en débarasser
    The problems were numerous. During the collaboration, MD Anderson switched to a new electronic health record system and Watson could not tap patient data. Watson struggled to decipher doctors’ notes and patient histories, too.

    Physicians grew frustrated, wrestling with the technology rather than caring for patients. After four years and spending $62 million, according to a public audit, MD Anderson shut down the project.

    “They chose the highest bar possible, real-time cancer diagnosis, with an immature technology,” said Shane Greenstein, a professor and co-author of a recent Harvard Business School case study on the Watson project at MD Anderson. “It was such a high-risk path.”

    Now IBM is paring back Watson Health and reviewing the future of the business. One option being explored, according to a report in The Wall Street Journal, is to sell off Watson Health.
    J'ai récemment entendu qu'IBM s'était justement unilatéralement désengagé d'un très gros projet dans la santé en Suisse...

  27. #4077
    Je fais partie des gens qui ne souhaitent pas vivre en mauvaise santé / devenir un problème pour mes enfants. Je m'intéresse donc "de loin" au sujet (vu que j'ai encore quelques années devant moi). C'est plutôt bien l'idée de la capsule.

  28. #4078
    Citation Envoyé par nodulle Voir le message
    Ca me fait marrer, à chaque fois que ça arrive ils donnent des excuses à la con : "je faisais le ménage et j'ai glissé", "Je me suis assis et j'ai pas vu qu'il y avait cet objet posé sur la chaise", "je faisais du yoga, j'ai tapé dans l'étagère et un objet est tombé directement entre les fesses", comme si on était dupe... Il n'y a pas de mal à se faire plaisir hein. Et avoir les yeux plus gros que le ventre ça arrive malheureusement à tout le monde.
    Le pire, c'est que si un jour tu glisses vraiment, t'auras moins l'air con en disant que tu te l'est rentré volontairement.

  29. #4079
    Le jour où tu te promènes à poil, où tu glisses et que tu tombes pile poil pour t'enfiler un objet profilé dans le rectum, c'est spécifique quand même.
    How can I be lost, if I've got nowhere to go?

  30. #4080
    Vous avez jamais vu un tabouret casser subitement ?

Page 136 sur 215 PremièrePremière ... 3686126128129130131132133134135136137138139140141142143144146186 ... DernièreDernière

Règles de messages

  • Vous ne pouvez pas créer de nouvelles discussions
  • Vous ne pouvez pas envoyer des réponses
  • Vous ne pouvez pas envoyer des pièces jointes
  • Vous ne pouvez pas modifier vos messages
  •