EPFL lanciert Open-Source-KI für medizinische Zwecke

28. November 2023 um 13:18
image
Foto: EPFL

Im Gegensatz zu proprietären medizinischen Large-Language-Modellen sei die Entwicklung und das Training von "Meditron" komplett transparent, betont die ETH Lausanne.

Forscher der École Polytechnique Fédérale de Lausanne (EPFL) haben ein Large-Language-Modell (LLM) für medizinische Anwendungen entwickelt und freigegeben. "Meditron", wie es genannt wird, soll Medizinerinnen und Medizinern in aller Welt dabei helfen, korrekte klinische Entscheidungen zu treffen.
Das Besondere an Meditron, betont die EPFL, sei sein Open-Source-Konzept. Es gibt bereits LLMs für die Medizin, die meisten seien aber proprietär. Anwender könnten nicht genau wissen, mit welchen Materialien sie trainiert wurden und können auch bei der Weiterentwicklung nicht eingreifen.

Transparente Trainingsdaten

Im Gegensatz dazu lege man bei Meditron offen, welche Daten für das Training verwendet wurden. Meditron basiere auf dem Open-Access-Modell Llama-2 von Meta und sei mit sorgfältig ausgewählten medizinische Datenquellen von hoher Qualität trainiert worden. Darunter sei wissenschaftlich geprüfte medizinische Fachliteratur aus öffentlich zugänglichen Quellen wie Pubmed sowie Guidelines für medizinische Praktiken aus verschiedenen Spitälern, Ländern und Regionen. Auch Guidelines von internationalen Organisationen seien verwendet worden, darunter jenes des Internationalen Roten Kreuzes.
Es komme nicht oft vor, dass bei der Entwicklung von medizinischen Tools auch humanitäre Aspekte berücksichtigt würden, kommentiert Javier Elkin vom IKRK. Deshalb freue man sich sehr über diese Zusammenarbeit mit der EPFL.
Nun hoffe man auf internationale Mitarbeit bei der Weiterentwicklung von Meditron, sagt Professor Martin Jaggi, der das Laboratorium für Machine Learning und Optimierung der EPFL leitet. "Wir wollen, dass Forscher mit unserem Modell Stress-Tests durchführen. Mit ihren Verbesserungen können sie es verlässlicher und robuster und sicherer machen. Es geht um den langen, aber notwendigen Prozess der Validierung in der realen Welt. Genau dies ist aber mit proprietären Modellen gar nicht möglich."

Leistung gleich gut wie proprietäre Systeme

Es gibt 2 Versionen von Meditron mit 7 oder 70 Milliarden Parametern. Obwohl die proprietären Modelle hunderte von Milliarden an Parametern verwenden, könne das eigene Open-Source-LLM bei der Qualität seiner Antworten mithalten, so die EPFL. Die sorgfältige Auswahl von weniger, aber für den Einsatzzweck massgeschneiderten und hochqualitativen Trainingsdaten mache dies möglich.
Nach der Entwicklung von Meditron habe man vier bekannte medizinische Benchmark-Tests durchgeführt, um das System zu evaluieren. Dabei habe sich gezeigt, dass Meditron nicht nur besser sei als alle anderen gegenwärtig erhältlichen Open-Source-Modelle, sondern auch besser als die proprietären Modelle GPT-3.5 und Med-PaLM. Die Meditron-Version mit 70 Milliarden Parametern erreiche zudem beinahe die Performance von GPT-4 und Med-PaLM-2, den beiden gegenwärtig besten LLMs für medizinische Zwecke.
Mehr zu den technischen Details und zur Leistung von Meditron findet man in diesem wissenschaftlichen Papier auf Arxiv.

Loading

Mehr zum Thema

image

Kanadische Medien verklagen OpenAI

Einige der grössten kanadischen Medienhäuser ziehen vor Gericht. Sie werfen OpenAI vor, Artikel für KI-Training missbraucht zu haben und fordern Schadensersatz.

publiziert am 2.12.2024
image

Jede dritte Schweizer Firma gut auf KI vorbereitet

Ein Drittel der Schweizer Unternehmen sieht sich beim Thema KI gut aufgestellt. Im europäischen Vergleich liegt die Schweiz damit aber nur im Mittelfeld.

publiziert am 29.11.2024
image

Kanton Luzern vergibt Auftrag für KI-Chatbot

Im Januar soll der Chatbot für die kantonalen Websites starten. Swiss Moonshot hat sich gegen 25 Mitbewerber durchgesetzt.

publiziert am 29.11.2024
image

Ostschweizer Fachhochschule eröffnet Institut für Smart Farming

Am ISF soll an der Verbindung von Landwirtschaft, Digitalisierung und Technik geforscht werden.

publiziert am 29.11.2024