Hinweis: Der folgende Artikel hilft Ihnen weiter: Ein Forschungsteam plant, KI mit menschlichen Gehirnzellen zu verschmelzen
Eine Gruppe von Forschern in Australien hat etwas mehr als 400.000 US-Dollar an staatlichen Fördermitteln erhalten, um die Möglichkeiten der Verschmelzung von KI mit menschlichen Gehirnzellen zu untersuchen – ein Forschungsprojekt, das wahrscheinlich eine Reihe von Ergebnissen bringen wird KI-bezogene ethische und existentielle Fragen in den Vordergrund.
Das Team, das in Zusammenarbeit mit der Monash University und dem in Melbourne ansässigen Startup Cortical Labs arbeitet, ist dieselbe Gruppe, die hinter dem DishBrain-Projekt steht, bei dem es darum ging, einer Gruppe menschlicher Gehirnzellen beizubringen, wie man das Retro-Videospiel „Pong“ spielt.
Während ChatGPT, Bard und andere KI-Tools, die auf großen Sprachmodellen basieren, werden weiterhin verwendet immer erfinderischere Wege von UnternehmenForschung wie diese könnte die Tür zu Systemen der künstlichen Intelligenz öffnen, die auf völlig andere – und menschlichere – Weise lernen.
Forschungsteam hinter DishBrain erhält Finanzierung
Monash University veröffentlicht ein Statement letzte Woche bestätigte das Unternehmen, dass es einen Zuschuss in Höhe von Hunderttausenden Dollar erhalten hat, um seine Forschung zum Thema „Züchtung menschlicher Gehirnzellen auf Siliziumchips mit neuen kontinuierlichen Lernfähigkeiten zur Transformation des maschinellen Lernens“ fortzusetzen.
Die Finanzierung erfolgte durch die Nationale Geheimdienst- und Sicherheitsforschung Grants Program, das Teil des australischen Verteidigungsministeriums ist.
Associate Professor Adeel Razi, der die Gruppe leitet, sagt, dass das Projekt „die Bereiche künstliche Intelligenz und synthetische Biologie zusammenführt, um programmierbare biologische Computerplattformen zu schaffen“.
Er prognostiziert, dass die Fähigkeiten dieser neuen Technologie „irgendwann die Leistung bestehender, rein siliziumbasierter Hardware übertreffen könnten“.
Die Art von KI-gestützter Technologie, von der sich viele von uns vorstellen, dass sie in naher Zukunft weit verbreitet sein wird – von autonomen Fahrzeugen bis hin zu „intelligenten Hand- und tragbaren Geräten“, „erfordert eine neue Art von maschineller Intelligenz, die während ihrer gesamten Lebensdauer lernfähig ist.“ erklärte außerordentlicher Professor Razi.
Viele KI-Systeme neigen derzeit zum „katastrophalen Vergessen“ – etwas, das die Lernfähigkeit biologischer neuronaler Netze möglicherweise lindern kann.
Ethische Implikationen und existenzielle Ängste im Zusammenhang mit KI-Forschung und -Entwicklung
ChatGPTs Start im November 2022 und andere KI-Chatbots, die seitdem entstanden sind – hat gesehen, wie Regierungen auf der ganzen Welt sich darum bemühten, Gesetze umzusetzen und Initiativen zu starten, die die verantwortungsvolle Entwicklung von KI-Systemen fördern.
Es sind jedoch nicht nur Regierungen, die verunsichert sind – ein im März von über tausend Technologieführern und Unternehmensvertretern unterzeichneter Brief forderte dies eine Pause für die Entwicklung jeglicher KI-Technologie stärker als GPT-4.
Im Kontext der KI-Forschung bergen die Bereiche mit dem höchsten Risiko – etwa das Gesundheitswesen – oft auch die größten Chancen. Daher versuchen viele Landesregierungen, ein empfindliches Gleichgewicht zwischen den beiden zu finden Förderung von Sicherheit und Transparenzy ohne die Innovation zu ersticken.
Es gibt auch umfassendere, grundlegendere ethische Überlegungen umgebende Hyperintelligenzsysteme – etwa ob es ethisch oder verantwortungsvoll ist, eine Maschine zu schaffen, die wir eines Tages möglicherweise nicht mehr kontrollieren können – die sich auf unheimliche Weise von Tag zu Tag dringlicher anfühlen.
Wenn es darum geht, menschliches biologisches Material mit Siliziumchips zu verschmelzen, ist es unwahrscheinlich, dass morgen ethische Probleme aus der Petrischale hervorgehen.
Aber es weist auf eine spezifische Grenze in der Entwicklung der KI hin – die Verschmelzung von menschlichen Körpern mit Maschinen –, die mit ethischen Dilemmata behaftet sein wird. Und – wie in vielen Bereichen der KI-Forschung – könnte es sich zwar als sehr risikoreich erweisen, aber auch als sehr lohnend.