WHO veröffentlicht Leitlinien für den ethischen Einsatz generativer KI im Gesundheitswesen
In einem Schritt in Richtung einer ethischen Governance zur Weiterentwicklung des Generativen künstliche Intelligenz (KI)-Technologie im Gesundheitswesen hat die Weltgesundheitsorganisation (WHO) umfassende Leitlinien zu großen multimodalen Modellen (LMMs) herausgegeben. Diese Modelle, die in der Lage sind, verschiedene Dateneingaben wie Text, Videos und Bilder zu akzeptieren, haben bei Plattformen wie … eine beispiellose Akzeptanz erfahren ChatGPT, Bard und Bert treten 2023 ins öffentliche Bewusstsein.
Die Leitlinien der WHO, die über 40 Empfehlungen umfassen, richten sich an Regierungen, Technologieunternehmen und Gesundheitsdienstleister und zielen darauf ab, einen verantwortungsvollen Einsatz von LMMs zur Förderung und zum Schutz der Gesundheit der Bevölkerung sicherzustellen. Dr. Jeremy Farrar, Chefwissenschaftler der WHO, betonte die potenziellen Vorteile von generative KI Technologien im Gesundheitswesen, betonte jedoch die Notwendigkeit transparenter Informationen und Richtlinien zur Bewältigung der damit verbundenen Risiken.
LMMs, die für ihre Nachahmung menschlicher Kommunikation und ihre Fähigkeit bekannt sind, Aufgaben auszuführen, die nicht explizit programmiert sind, weisen nach Angaben der WHO fünf breite Anwendungsmöglichkeiten im Gesundheitswesen auf. Dazu gehören Diagnose und klinische Versorgung, patientengesteuerter Einsatz zur Untersuchung von Symptomen und Behandlung, Büro- und Verwaltungsaufgaben im Rahmen elektronischer Patientenakten, medizinische und pflegerische Ausbildung durch simulierte Patientenbegegnungen sowie wissenschaftliche Forschung und Arzneimittelentwicklung zur Identifizierung neuer Verbindungen.
Die Leitlinien heben jedoch dokumentierte Risiken hervor, die mit LMMs verbunden sind, einschließlich der Erstellung falscher, ungenauer oder voreingenommener Informationen. Dies stellt einen potenziellen Schaden für Personen dar, die sich bei wichtigen Gesundheitsentscheidungen auf solche Informationen verlassen. Die Qualität und Verzerrung der Trainingsdaten in Bezug auf Faktoren wie Rasse, ethnische Zugehörigkeit, Abstammung, Geschlecht, Geschlechtsidentität oder Alter könnten die Integrität der LMM-Ergebnisse beeinträchtigen.
Über individuelle Risiken hinaus erkennt die WHO umfassendere Herausforderungen für Gesundheitssysteme an, die sich aus LMMs ergeben. Dazu gehören Bedenken hinsichtlich der Zugänglichkeit und Erschwinglichkeit der fortschrittlichsten LMMs, einer möglichen „Automatisierungsverzerrung“ durch medizinisches Fachpersonal und Patienten usw Internet-Sicherheit Schwachstellen, die Patienteninformationen und die Vertrauenswürdigkeit von KI-Algorithmen in der Gesundheitsversorgung gefährden.
Für die Bereitstellung von LLMs ist die Einbindung von Stakeholdern erforderlich
Um diese Herausforderungen anzugehen, betont die WHO die Notwendigkeit des Engagements verschiedener Interessengruppen während der Entwicklung und des Einsatzes von LMMs. Regierungen, Technologieunternehmen, Gesundheitsdienstleister, Patienten und die Zivilgesellschaft sind aufgefordert, sich aktiv für den verantwortungsvollen Einsatz von KI-Technologien einzusetzen.
Die Leitlinien enthalten spezifische Empfehlungen für Regierungen und übertragen ihnen die Hauptverantwortung, Standards für die Entwicklung, den Einsatz und die Integration von LMMs in die öffentliche Gesundheit und medizinische Praxis festzulegen.
Regierungen werden aufgefordert, in gemeinnützige oder öffentliche Infrastruktur zu investieren oder diese bereitzustellen, einschließlich Rechenleistung und öffentliche Datensätze, die Entwicklern in verschiedenen Sektoren zugänglich sind. Diese Ressourcen wären davon abhängig, dass die Nutzer ethische Grundsätze und Werte einhalten. Durch Gesetze, Richtlinien und Vorschriften soll sichergestellt werden, dass LMMs im Gesundheitswesen ethische Verpflichtungen und Menschenrechtsstandards einhalten und Aspekte wie Würde, Autonomie und Privatsphäre schützen.
In den Leitlinien wird außerdem die Beauftragung bestehender oder neuer Regulierungsbehörden mit der Bewertung und Genehmigung von LMMs und Anwendungen für den Gesundheitsbereich im Rahmen der verfügbaren Ressourcen vorgeschlagen. Darüber hinaus werden für groß angelegte LMM-Einsätze obligatorische Post-Release-Audits und Folgenabschätzungen durch unabhängige Dritte empfohlen. Diese Bewertungen sollten Überlegungen zum Datenschutz und zu den Menschenrechten umfassen, wobei die Ergebnisse und Auswirkungen nach Benutzermerkmalen wie Alter, Rasse oder Behinderung aufgeschlüsselt werden sollten.
Den Entwicklern von LMMs obliegen auch Schlüsselaufgaben. Sie werden aufgefordert, sicherzustellen, dass potenzielle Benutzer und alle direkten und indirekten Interessengruppen, einschließlich medizinischer Anbieter, wissenschaftlicher Forscher, medizinischem Fachpersonal und Patienten, bereits in den frühen Phasen einbezogen werden KI-Entwicklung. Transparente, integrative und strukturierte Designprozesse sollten es den Beteiligten ermöglichen, ethische Fragen anzusprechen, Bedenken zu äußern und Beiträge zu leisten.
Darüber hinaus sollten LMMs so konzipiert sein, dass sie eine gute Leistung erbringen.defierledigte Aufgaben mit der nötigen Genauigkeit und Zuverlässigkeit, um Gesundheitssysteme zu verbessern und Patienteninteressen voranzutreiben. Entwickler müssen außerdem in der Lage sein, potenzielle sekundäre Ergebnisse ihrer KI-Anwendungen vorherzusagen und zu verstehen.
Haftungsausschluss
Im Einklang mit der Richtlinien des Trust-ProjektsBitte beachten Sie, dass die auf dieser Seite bereitgestellten Informationen nicht als Rechts-, Steuer-, Anlage-, Finanz- oder sonstige Beratung gedacht sind und nicht als solche interpretiert werden sollten. Es ist wichtig, nur so viel zu investieren, wie Sie sich leisten können, zu verlieren, und im Zweifelsfall eine unabhängige Finanzberatung einzuholen. Für weitere Informationen empfehlen wir einen Blick auf die Allgemeinen Geschäftsbedingungen sowie die Hilfe- und Supportseiten des Herausgebers oder Werbetreibenden. MetaversePost ist einer genauen, unvoreingenommenen Berichterstattung verpflichtet, die Marktbedingungen können sich jedoch ohne Vorankündigung ändern.
Über den Autor
Kumar ist ein erfahrener Technologiejournalist mit Spezialisierung auf die dynamischen Schnittstellen von KI/ML, Marketingtechnologie und aufstrebenden Bereichen wie Krypto, Blockchain und NFTS. Mit über drei Jahren Erfahrung in der Branche hat Kumar eine nachgewiesene Erfolgsbilanz bei der Erstellung überzeugender Erzählungen, der Durchführung aufschlussreicher Interviews und der Bereitstellung umfassender Erkenntnisse. Kumars Fachwissen liegt in der Produktion von wirkungsvollen Inhalten, darunter Artikeln, Berichten und Forschungspublikationen für prominente Branchenplattformen. Mit seinen einzigartigen Fähigkeiten, die technisches Wissen und Geschichtenerzählen kombinieren, zeichnet sich Kumar dadurch aus, dass er komplexe technologische Konzepte einem unterschiedlichen Publikum auf klare und ansprechende Weise vermittelt.
Weitere ArtikelKumar ist ein erfahrener Technologiejournalist mit Spezialisierung auf die dynamischen Schnittstellen von KI/ML, Marketingtechnologie und aufstrebenden Bereichen wie Krypto, Blockchain und NFTS. Mit über drei Jahren Erfahrung in der Branche hat Kumar eine nachgewiesene Erfolgsbilanz bei der Erstellung überzeugender Erzählungen, der Durchführung aufschlussreicher Interviews und der Bereitstellung umfassender Erkenntnisse. Kumars Fachwissen liegt in der Produktion von wirkungsvollen Inhalten, darunter Artikeln, Berichten und Forschungspublikationen für prominente Branchenplattformen. Mit seinen einzigartigen Fähigkeiten, die technisches Wissen und Geschichtenerzählen kombinieren, zeichnet sich Kumar dadurch aus, dass er komplexe technologische Konzepte einem unterschiedlichen Publikum auf klare und ansprechende Weise vermittelt.