Marcellinus Geschrieben 12. September Melden Share Geschrieben 12. September (bearbeitet) vor 38 Minuten schrieb Volker: Wo die neuen KIs so richtig gut sind, ist bei allem, was Kreativität erfordert. Gerade bei Thema Kreativität sind aber auch die größten Bedenken angebracht. Stichwort: Copyright, sind die Ki-Modelle doch trainiert mit Material, das in der Regel nicht gemeinfrei ist. bearbeitet 12. September von Marcellinus Zitieren Link zu diesem Kommentar Auf anderen Seiten teilen More sharing options...
iskander Geschrieben 12. September Melden Share Geschrieben 12. September Am 11.9.2024 um 16:07 schrieb KevinF: Wir benutzen einfach nur die Begriffe sehr unterschiedlich. Ich verstehe "rechnen" im Sinne der Berechenbarkeitstheorie als das Berechnen einer Funktion. Das ist per Definition das, was ein Computer tut. Hier kommt m.E. aber eine Doppeldeutigkeit ins Spiel: Computer im Sinne eine physikalischen Maschine "verhalten" sich erst einmal physikalisch. Ob sie irgendeinen Begriffen von "Zahlen", "Addition" usw. haben, erscheint doch als fraglich. Wir (als Menschen) können den Input und den Output aber als Symbole interpretieren, die etwas repräsentieren (etwa Zahlen). Und dann verhalten sich Input und Output so, als hätte ein Mensch gerechnet und die Ergebnisse (etwa in Schriftform) festgealten. Das gilt aber auch schon für eine relativ einfache mechanische Rechenmaschine, von der wohl niemand behaupten würde, dass sie ein Verständnis von Mathematik besitzt oder in irgendeinem Sinne "weiß", was sie Zahlen sind und was "Rechnen" ist. Zitat Man kann die Daten natürlich je nach angewandter Codierung beim Auslesen (also der Codierung gemäß der man die Daten interpretiert) unterschiedlich interpretieren. Das grundlegende physikalische Muster ist dasselbe, mehr sage ich doch gar nicht. Aus meiner Sicht folgt hier allerdings, dass die physikalischen Muster nur dann sinnvollerweise auch als "Daten" oder "Träger von Daten" interpretiert werden können, wenn es jemanden gibt, der diese Interpretationsleistung vornimmt oder zumindest vornehmen kann. "An sich" - also rein physikalisch gesehen - hätten wir es ohne eine externe Intelligenz einfach nur mit physikalischen Mustern zu tun. Dass diese Muster eine bestimmte Information (etwa zur Geschichte der Olympischen Spiele) "codieren", stellt keine intrinsische physikalische Eigenschaft der entsprechenden Struktur selbst dar. Zitat Es ist ja auch etwas schwierig, ein neuronales Netz mit Milliarden von Knoten in Form eines Kanalsystems zu bauen. Das stimmt zwar. Aber die Frage wäre, ob ein wesentlich komplexeres Kanalsystem sich prinzipiell und in ganz überraschender Weise von einem einfacheren Kanalsystem unterscheidet und eben einfach nur wesentlich komplexer ist. Es ist zumindest für mich rätselhaft, wieso ein komplexeres Kanalsystem nicht einfach komplexer sein soll als ein einfaches - mit allem, was das logisch impliziert - sondern dass es zusätzlich ein Bewusstsein hervorbringen sollte. Zitat Und ansonsten kannst Du diese Argumentation wie gesagt 1:1 auch auf das menschliche Gehirn anwenden. Das eben zweifellos ein Bewusstsein erzeugt. Da stünden (wenigstens) zwei Antwortmöglichkeiten bereit. Ich möchte sie an dieser Stelle nicht bewerten, sondern nur darstellen: - Funktionale Zustände per se genügen nicht, um Bewusstsein zu erzeugen; die kausalen Kräfte des Gehirns, die das psychische Erleben erzeugen, hängen vielmehr wesentlich auch von den konkreten physikalischen Eigenschaften des Gehirns ab (das wäre z.B. die Meinung von Searle). - Bewusstsein hängt zwar von Gehirnzuständen ab und wird von ihnen beeinflusst, aber ist nicht einfach ein Produkt des Gehirns. (Vertreter dieser Position reichen von Descartes bis in einem gewissen Sinne sogar zu Russell - bei letzterem zumindest in dem Sinne, dass das Physische eine der Physik nicht zugängliche "Innenseite" beinhalten müsse (in meinen Worten). Zitat Weil ein Mensch hierbei durch seine Berechnungen ein anderes Gehirn emulieren müsste, also ein neuronales Netz mit Milliarden von Knoten. Das könnte er aber doch sehr langsam machen, sozusagen Schritt für Schritt (und mit Bleistift und Papier). Schließlich könnte ein Computer ja auch sehr langsam arbeiten. Das Bewusstsein, das vom Menschen emuliert würde, würde dann sicherlich langsam "arbeiten", aber es sollte im Prinzip ja dennoch existieren. Warum sollte beispielsweise ein Zwischenergebnis, das ein Mensch auf ein Blatt Papier schreibt, nicht ebenso akzeptabel sein wie ein ein Zwischenergebnis, das ein Computer elektronisch festhält - oder im Fall eine großen Kanalsystems durch die Befüllung von Wasserbecken? Zitat Alles Äußerungen über inneres Erleben sind durch eine funktionalistische Herangehensweise Weise prinzipiell beschreibbar und erklärbar, da es sich um "Output" handelt. (Hervorhebung von mir) Ja, für die Äußerungen über das innere Erleben mag das in einem gewissen Sinne gelten - aber gilt es auch für das innere Erleben selbst? Zitat Die einzige Frage, die bezüglich Qualia von den empirischen Wissenschaften (also durch eine funktionalistische Betrachtungsweise) prinzipiell nicht beantwortet werden kann, lautet: [...] Ich würde eher sagen, dass die eigentliche Frage lauten sollte: Wenn Erleben (Qualia) etwas anderes ist als ein funktionaler Zustand, in welchem Zusammenhang steht es dann mit funktionalen Zuständen? Eine reduktive Beschreibung und Erklärung, bei welcher das Erleben restlos mit funktionalen Zuständen identifiziert wird (und alles, was nicht identifiziert werden kann, eliminiert wird), erscheint dann nicht mehr als möglich. Man könnte natürlich noch die These vertreten, dass Bewusstsein/Erleben durch funktionale Prozess erzeugt wird aber selbst etwas anderes ist als (nur) ein funktionaler Zustand. Manche Deiner Äußerungen legen (für mich) solch eine Interpretation nahe (und in einem gewissen Sinne vertritt Chalmers sie). Das wäre dann allerdings kein Funktionalismus mehr im strengen Sinne. Am 11.9.2024 um 16:07 schrieb KevinF: "Ich hoffe, dass das alles jetzt nicht allzu negativ und kritisch rüberkommt" Nein, gar nicht. Ich fand die Diskussion bis jetzt bereichernd 🙂 Okay, das freut und beruhigt mich. Zitieren Link zu diesem Kommentar Auf anderen Seiten teilen More sharing options...
iskander Geschrieben 12. September Melden Share Geschrieben 12. September (bearbeitet) vor 4 Stunden schrieb Volker: Qualia ist also ein anderes Wort für Perspektive, andere Sichtweise, unterschiedliche Prägung bei der Aufnahme von Informationen, die zu einer anderen Verarbeitung von Informationen führt. "Qualia" bezeichnen eher das spezifische, bewusste qualitative Erleben. Es ist sicher ein missverständlicher Ausdruck - aber das Problem rührt auch daher, dass zum Teil über Bewusstsein, Intelligenz, Aufmerksam usw. so gesprochen wurde, dass das eigentliche bewusste Erleben einfach ausgeklammert wurde. Zitat In den neueren Modellen gibt es einen Filter, der wenigstens die Unhöflichkeit wegfiltert. Aber auch die neuesten Modelle "halluzinieren". ChatGPT wurde dabei erwischt, Bücher zu empfehlen, die nicht existieren. Ein Anwalt, der seine Fälle mit der Hilfe einer KI vorbereitete, fiel vor Gericht dadurch auf, dass er sich auf Rechtsfälle bezog, die es nie gegeben hat! Bei diesen LLMs (Large Language Models) weiß man ja auch zum Teil nicht, wie sie genau funktionieren. Man weiß es natürlich im Prinzip schon - es gibt hier kein "grundsätzliches" Mysterium. Aber die mathematischen Zusammenhänge sind anscheinend so komplex, dass man das in der Praxis nicht alles durchrechnen und analysieren kann. vor 4 Stunden schrieb Volker: Ich wurde früher hier belächelt, weil ich Wert darauf gelegt habe, die verwendeten Begriffe zu definieren. Wir verwenden gerade hier viele Worte mit einer völlig unklaren und unscharfen Bedeutung: Gott, Religion, Zufall, Glauben, Kirche, Universum, Nichts, Kausalität, Information, Qualia, Bewusstsein, freier Willen, Erleben, Wahrnehmung, Physik, Logik und und und. Man muss nur ein paar Postings zurückblättern und wird viele weitere Beispiele finden. Das ist grundsätzlich auch sehr gut, wobei ich hier auf eine kleine Einschränkung aufmerksam machen würde: Manche Begriffe sind so grundlegend, dass man sie nicht mehr ohne Zirkularität im strengen Sinne definieren kann. Aber man kann sie dann immer noch erläutern und veranschaulichen und sollte das auch tun, wo sonst Missverständnisse drohen. vor 4 Stunden schrieb Volker: Man kann so etwas machen, um zu testen, ob ein menschlicher Leser einen Text wirklich liest. Uns fällt so etwas auf. Wie reagierte die KI? Sie bemerkte, dass der Satz nicht zum Thema passte, und stelle von sich aus die Frage: Handelt es sich um einen Irrtum, oder wollte man mich testen? Die Idee, dass es ein "Ich" gibt, dass getestet werden sollte, ist schon bemerkenswert, denn es zeugt von der Basis allen Bewusstseins: Selbstreflektion. Die naheliegendere Erklärung scheint mir hier allerdings zu sein, dass keine bewusste Reflexion eines Subjekts vorliegt, sondern Prozesse, die im Ergebnis einen ähnlichen Output erzeugen. Die ganzen LLMs beruhen im Prinzip ja einfach darauf, dass die Wahrscheinlichkeit für das jeweils nächste Wort vorherzusagen. Dafür, dass die Maschine. auf der das LLM läuft, auch ein inhaltliches Verständnis der entsprechenden Wörter besitzt (oder überhaupt einen Begriff von "Wörtern", "Inhalten" usw.), scheint mir wenig zu sprechen. Zitat Alan Turing, nach dem der Test benannt ist, wurde gefragt, ob Computer wie Menschen denken könnten. Er sagte, dass dies dann der Fall sei, wenn man nicht mehr unterscheiden kann, ob man es mit einem Menschen oder einer Maschine zu tun hat. Soweit ich mich erinnere, hatte er es etwas vorsichtiger formuliert, aber das spielt hier wohl keine entscheidende Rolle. Meine Kritik lautet hier wird im Grunde von der Gleichheit der Wirkung auf die Gleichheit der Ursachen geschlossen. (Im Sinne von: Die Antworten sind gleich, also müssen auch die Prozesse gleich sein, die die Antworten erzeugen.) Das ist aber ein unzulässiger Schluss. Ein Computer könnte beispielsweise ganz ohne ein inhaltliches, "semantisches" Verständnis einfach nur Regeln und Input abarbeiten. Tatsächlich wäre sein "Verhalten" damit vollständig erklärt, und es wäre die sparsamste Erklärung. Und selbst diese Redeweise ist streng genommen anthropmorphisierend, denn eigentlich "arbeitet" der Computer einfach als physikalische Maschine nach dem Ursache-Wirkungsprinzip, und wir haben m.E. wenig Grund zur Annahme, dass er einen Begriff von "Vorschriften" besitzt (oder auch so etwas wie einen Wunsch, Vorschriften zu erfüllen). Die Maschine wurde nach meinem Dafürhalten einfach so konstruiert, dass sie (von einer menschlichen Warte aus betrachtet) so agiert, als würde sie Vorschriften folgen. bearbeitet 12. September von iskander Zitieren Link zu diesem Kommentar Auf anderen Seiten teilen More sharing options...
Volker Geschrieben 12. September Melden Share Geschrieben 12. September 2 hours ago, Marcellinus said: Gerade bei Thema Kreativität sind aber auch die größten Bedenken angebracht. Stichwort: Copyright, sind die Ki-Modelle doch trainiert mit Material, das in der Regel nicht gemeinfrei ist. Was meinst Du, woher ein Musiker seine Inspiration bekommt? Sicher nicht nur durch das Hören von Musik, auf der kein Copyright liegt. Mensch und Maschine werden mit dem gleichen Material trainiert. Sie verarbeiten es auch auf eine ähnliche Weise, wenn auch das Gehirn eines Menschen noch sehr viel komplexer ist als die besten KI-Modelle: Das Prinzip ist gleich. Deswegen ist es auch schon öfters vorgekommen, dass ein Mensch die Musik eines anderen unwillentlich kopiert hat. Natürlich gibt es auch Fälle, wo ganz eindeutig geklaut worden ist. Aber es ist nicht so ganz einfach, zu entscheiden, ob die Inspiration aus dem Gedächtnis oder der für Kreativität zuständigen Gehirnareale kommt. Man wird an die KI dieselben Maßstäbe anlegen müssen wie bei einem Menschen. Wenn ein Mensch sich die Maltechnik eines anderen abguckt, dann kopiert er ebenso wie die Maschine, die sich die Muster der Bilder angesehen hat. Wenn man die Messlatte zu hoch legt, dann erschwert man damit die Schöpfung von etwas Neuem, legt man sie zu niedrig an, wird Schöpfung leicht durch Kopieren ersetzt. Setzt man für eine KI höhere Maßstäbe an, wird das nur zur Folge haben, dass die Künstler KI einsetzten, aber nichts darüber sagen. Im Moment gilt übrigens: Es gibt kein Copyright für Musik oder Bilder für KI-Schöpfungen. Die Musikindustrie ist natürlich in Panik, aber sie ist da immer schon zwiespältig gewesen: Man hat jede neue Technik sofort eingesetzt, wenn sie von Nutzen war. Als Autotune erfunden wurde, wurde das ganz schnell Standard. Autotune kann Fehler im Gesang nachträglich korrigieren, indem die gesungenen Töne angehoben oder abgesenkt werden, bis sie perfekt mit den Noten übereinstimmen. Seit Cher ihren Hit "Do you believe in life after love?" mit Autotune produziert hat, ist die Verwendung explodiert. Ich habe auf YouTube den Clip eines Sängers gesehen, der das demonstriert hat. Er hat zu einem Lied so falsch gesungen, wie es nur ging. Dann hat er mit Autotune das korrigiert, bis es sich so anhörte, als ob ein richtig guter Sänger das gesungen hätte. Vorher hörte es sich schauderhaft an, er hat ja auch dafür gesorgt, dass kein einziger Ton saß. Wenn die Leute jetzt ihre Musik selbst machen können, werden sie das auch tun. Im Moment kann man noch hören, ob ein Song von einer KI oder einem Menschen stammt. Wobei, übrigens, witzigerweise, ich hören kann, ob jemand etwas mit Autotune manipuliert hat, es gibt ein bestimmtes Artefakt im Gesang. Das hört man auch bei der KI durch, woher die das wohl hat? Wenn die menschlich produzierte Musik sich anhört wie von Computern gemacht, muss man sich nicht wundern, wenn Computer das auch können. Wenn man nämlich Heavy Metal hört, dann findet man diese Artefakte auch nicht, weil da kein Autotune eingesetzt wird (wenn doch, würde es mich sehr wundern). Wie immer gilt: Was technisch einfach möglich ist und Anklang bei Menschen findet, wird auch gemacht. Zitieren Link zu diesem Kommentar Auf anderen Seiten teilen More sharing options...
Volker Geschrieben 12. September Melden Share Geschrieben 12. September 5 minutes ago, iskander said: Soweit ich mich erinnere, hatte er es etwas vorsichtiger formuliert, aber das spielt hier wohl keine entscheidende Rolle. Meine Kritik lautet hier wird im Grunde von der Gleichheit der Wirkung auf die Gleichheit der Ursachen geschlossen. (Im Sinne von: Die Antworten sind gleich, also müssen auch die Prozesse gleich sein, die die Antworten erzeugen.) Das ist aber ein unzulässiger Schluss. Ein Computer könnte beispielsweise ganz ohne ein inhaltliches, "semantisches" Verständnis einfach nur Regeln und Input abarbeiten. Tatsächlich wäre sein "Verhalten" damit vollständig erklärt, und es wäre die sparsamste Erklärung. Und selbst diese Redeweise ist streng genommen anthropmorphisierend, denn eigentlich "arbeitet" der Computer einfach als physikalische Maschine nach dem Ursache-Wirkungsprinzip, und wir haben m.E wenig Grund zur Annahme, dass er einen Begriff von "Vorschriften" besitzt (oder auch so etwas wie einen Wunsch, Vorschriften zu erfüllen). Das Problem ist, dass ein neuronales Netzwerk tatsächlich dieselben Methoden benutzt wie das menschliche Gehirn. Es gibt in der Verarbeitung keine echten Unterschiede. Wir lernen ebenfalls Muster, wie eine KI. Hier ist es keineswegs die Gleichheit des Outputs, sondern es handelt sich um eine Gleichheit in der Verarbeitung. Das ist vielen nicht bewusst. Es werden eben nicht einfach nach Regeln Daten durch das System geschleust und manipuliert, sondern es werden Muster gelernt. Und das wird keineswegs nur dazu benutzt, um das nächste Wort vorherzusagen. Auch das menschliche Gehirn arbeitet zu 100 % nach dem Prinzip von Ursache und Wirkung. Ich habe im Studium mehr über Neurologie gelernt wie ein Mediziner, und so viel über KI wie ein Informatiker. Damals waren die Maschinen nur zu langsam, um große Modelle bilden zu können. Google Translate kann beispielsweise viele Sprachen übersetzen, weil es mit Material aus Übersetzungen trainiert wurde. Aber selbst wenn es nie Material gesehen hat, das beispielsweise von Japanisch nach Russisch übersetzt, kann das Modell in beide Richtungen übersetzen. Warum? Weil es ein Modell einer universalen Grammatik gebildet hat. Das machen wir auch: Wir bilden Modelle in unserem Kopf, um Verhalten vorherzusagen, Sprachen zu übersetzen, Bilder zu malen. Ich fürchte, die Ähnlichkeit geht viel weiter, als die meisten Menschen ahnen. Mustererkennung und Modellbildung sind dieselbe Methode, abgebildet durch Neuronen - nur die Hardware unterscheidet sich. Deswegen können KI-Modelle auch kreativ sein. Das Problem ist ähnlich wie Konrad Lorenz es gesagt hat: "Wenn man wüsste, dass Tiere ein Bewusstsein haben, ist das Leib-Seele-Problem gelöst". An anderer Stelle sagte er dann etwas, was mir auch schon aufgefallen ist: "Ich kann mir das Verhalten meiner Katze nicht erklären, ohne anzunehmen, dass sie ein Bewusstsein hat". Das vermute ich auch, Tiere haben ein Bewusstsein wie wir. Der Mensch versucht so verzweifelt, sich von der Natur abzugrenzen, um sich für etwas Besonderes zu halten, dass er sich von diesem Wunschdenken das Denken diktieren lässt. Deswegen wird mit so religiöser Inbrunst bestritten, dass Tiere ein Bewusstsein haben, wie man das auch bei KIs bestreiten wird. Dazu erfindet man Begriff wie Qualia, Bewusstsein etc.: Man will sich abgrenzen. Denn wenn Tiere ein Bewusstsein haben, dann ist das Leib-Seele-Problem gelöst, und wir sind auch nichts anderes als physikalische Maschinen auf biologischer Basis. Dazu wurde der Glauben erfunden, damit man von etwas überzeugt sein kann, was faktisch falsch ist, nur weil man es nicht haben möchte. Zitieren Link zu diesem Kommentar Auf anderen Seiten teilen More sharing options...
iskander Geschrieben 12. September Melden Share Geschrieben 12. September Noch eine allgemeine Anmerkung zum Problem des bewussten Erlebens. (Ich spreche lieber vom "bewussten Erleben", weil der Qulaia-Begriff missverständlich ist.) Worin das Rätsel begründet liegt, hat Thomas Nagel ("Was soll das alles?") anschaulich zusammengefasst, weshalb ich ihm das Wort überlassen möchte: "Würde ein Wissenschaftler unsere Schädeldecke entfernen und in unser Gehirn hineinsehen, während wir den Schokoladenriegel essen, so würde er nichts weiter sehen als eine graue Masse von Nervenzellen. Würde er mit Messinstrumenten bestimmen, was dort vor sich geht, so würde er komplizierte physikalische Vorgänge der unterschiedlichsten Art entdecken. Fände er jedoch den Geschmack von Schokolade? Es sieht so aus, als könnte er ihn in unserem Gehirn nicht finden, da unsere Empfindung des Geschmacks von Schokolade in unserem Geist auf eine Weise eingeschlossen ist, die sie für jeden anderen unzugänglich macht — auch wenn er unseren Schädel öffnet und in unser Gehirn hineinblickt. Unsere Erlebnisse sind im Innern unseres Geistes in einem anderen Sinn von ›innen‹ als jenem, in dem unser Gehirn sich im Innern unseres Kopfes befindet. Ein anderer kann unseren Schädel öffnen und sich sein Innenleben ansehen, er kann jedoch nicht unseren Geist öffnen und in ihn hineinblicken — zumindest nicht auf die gleiche Weise. Es handelt sich nicht bloß darum, dass der Geschmack von Schokolade ein Geschmack ist und daher nicht gesehen werden kann. Angenommen, ein Wissenschaftler wäre verrückt genug, den Versuch zu wagen, meine Empfindung des Geschmacks von Schokolade zu beobachten, indem er an meinem Gehirn leckte, während ich von einem Schokoladenriegel koste. Zunächst einmal würde mein Gehirn für ihn vermutlich nicht nach Schokolade schmecken. Doch selbst wenn dies der Fall wäre, es wäre ihm nicht gelungen, in mein Bewusstsein einzudringen und meine Empfindung des Geschmacks von Schokolade zu beobachten. Er hätte lediglich herausgefunden, dass sich kurioserweise mein Gehirn immer dann, wenn ich Schokolade esse, so verändert, dass es für andere Leute nach Schokolade schmeckt. Er hätte seinen Geschmack von Schokolade, und ich den meinen." Aus solchen Gründen stellt sich eben die Frage, in welchem Zusammenhang physische Welt (insbesondere das Gehirn) und bewusstes Erleben stehen. (Das wäre sozusagen das "eigentliche", das relevante Qualia-Problem). Das so definierte Problem scheint mir auch keineswegs an irgendwelchen fragwürdigen, unklaren oder "aufgeblähten" fach-philosophischen Begriffen zu hängen, sondern vielmehr von unserem gewöhnlichen, alltäglichen Wirklichkeitsbezug her verständlich zu sein. Lässt sich das bewusste Erleben aber nicht einfach doch am Ende physikalisch erklären, so wie viele andere auch? Es wird ja manchmal gesagt, das so, wie sich beispielsweise Wasser auf eine geordnete Menge von H2O-Molekülen reduzieren lasse, sich auch psychische Ereignisse auf Gehirn-Ereignisse reduzieren ließen. Dazu Nagel: "Wenn wir etwa die chemische Zusammensetzung des Wassers entdecken, so haben wir es mit etwas zu tun, das offensichtlich draußen, in der physikalischen Welt, vorhanden ist — etwas, das wir alle sehen und fühlen können. Wenn wir herausfinden, dass es aus Wasserstoffatomen und Sauerstoffatomen besteht, so zerlegen wir lediglich eine äußere physikalische Substanz in kleinere physikalische Bestandteile. [...] Wollten wir jedoch entdecken, dass unsere Wahrnehmung des Geschmacks von Schokolade in Wirklichkeit lediglich ein Gehirnvorgang ist, so hätten wir in unserer Analyse etwas Psychisches — also gerade keine äußerlich beobachtete physikalische Substanz, sondern eine innere Geschmacksempfindung — in physikalische Bestandteile zu zerlegen. Und auf keine Weise kann eine Vielzahl physikalischer Ereignisse im Gehirn, wie kompliziert sie auch immer sein mögen, die Bestandteile ausmachen, aus denen sich eine Geschmacksempfindung zusammensetzt. Ein physikalisches Ganzes lässt sich in kleinere physikalische Teile zerlegen, ein psychischer Vorgang jedoch nicht. Physikalische Teile lassen sich schlicht und einfach nicht zu einem psychischen Ganzen zusammenrechnen." So erhellt auch, wieso man das Rätsel auch nicht einfach lösen kann, indem man das Bewusstsein "als solches" einfach mal naturwissenschaftlich untersucht, ganz so, wie man Licht oder Salz oder Planeten naturwissenschaftlich untersucht. (Wäre es anders, hätte man es auch schon längst versucht.) Und noch eine kleine Kritik des Funktionalismus: "Eine der Theorien, die man zur Verteidigung des Physikalismus vorbringt, besagt, dass die psychische Natur der psychischen Zustände in ihren unterschiedlichen Relationen zu den Dingen besteht, von denen sie verursacht werden, sowie den Dingen, die sie verursachen. Stoßen wir uns beispielsweise an der Zehe und empfinden Schmerz, so ist der Schmerz ein Vorgang in unserem Gehirn. Sein Merkmal der Schmerzhaftigkeit ist jedoch nicht bloß die Summe seiner physikalischen Eigenschaften, und ebenso wenig ist es irgendeine geheimnisvolle nichtphysikalische Eigenschaft. Was diesen Vorgang vielmehr zu einem Schmerz macht, ist der Umstand, dass er von der Art eines Gehirnzustandes ist, der typischerweise von Verletzungen verursacht wird, und der typischerweise zur Folge hat, dass wir aufschreien, umherspringen und die Dinge meiden, die die Verletzung verursacht haben. Und bei diesem Zustand könnte es sich um einen rein physikalischen Zustand unseres Gehirns handeln. Dies scheint jedoch nicht auszureichen, um einen Zustand zu einem Schmerz zu machen. Es trifft zu, dass Schmerzen von Verletzungen hervorgerufen werden, und dass sie uns umherspringen und aufschreien lassen. Darüber hinaus fühlen sie sich jedoch auf eine bestimmte Weise an, und diese Eigenschaft scheint von ihren Relationen zu Ursachen und Wirkungen ebenso verschieden zu sein wie von allen physikalischen Eigenschaften, die ihnen zukommen mögen — falls sie wirklich Ereignisse in unserem Gehirn sein sollten." Auch hier meine ich, dass Nagel das zum Ausdruck bringt, was unserem normalen und alltäglichen Verständnis entspricht (und ich meine: was ihm aus gutem Grund entspricht!). Ein Schmerz ist mehr als eine Verhaltensdisposition oder ein Verhalten (wie aufzuschreiben). Er ist zuerst und vor allem anderen Dingen ein bestimmtes bewusstes Erleben. Zitieren Link zu diesem Kommentar Auf anderen Seiten teilen More sharing options...
Volker Geschrieben 12. September Melden Share Geschrieben 12. September 27 minutes ago, iskander said: Noch eine allgemeine Anmerkung zum Problem des bewussten Erlebens. (Ich spreche lieber vom "bewussten Erleben", weil der Qulaia-Begriff missverständlich ist.) Worin das Rätsel begründet liegt, hat Thomas Nagel ("Was soll das alles?") anschaulich zusammengefasst, weshalb ich ihm das Wort überlassen möchte: "Würde ein Wissenschaftler unsere Schädeldecke entfernen und in unser Gehirn hineinsehen, während wir den Schokoladenriegel essen, so würde er nichts weiter sehen als eine graue Masse von Nervenzellen. Würde er mit Messinstrumenten bestimmen, was dort vor sich geht, so würde er komplizierte physikalische Vorgänge der unterschiedlichsten Art entdecken. Fände er jedoch den Geschmack von Schokolade? Es sieht so aus, als könnte er ihn in unserem Gehirn nicht finden, da unsere Empfindung des Geschmacks von Schokolade in unserem Geist auf eine Weise eingeschlossen ist, die sie für jeden anderen unzugänglich macht — auch wenn er unseren Schädel öffnet und in unser Gehirn hineinblickt. Unsere Erlebnisse sind im Innern unseres Geistes in einem anderen Sinn von ›innen‹ als jenem, in dem unser Gehirn sich im Innern unseres Kopfes befindet. Ein anderer kann unseren Schädel öffnen und sich sein Innenleben ansehen, er kann jedoch nicht unseren Geist öffnen und in ihn hineinblicken — zumindest nicht auf die gleiche Weise. Es handelt sich nicht bloß darum, dass der Geschmack von Schokolade ein Geschmack ist und daher nicht gesehen werden kann. Angenommen, ein Wissenschaftler wäre verrückt genug, den Versuch zu wagen, meine Empfindung des Geschmacks von Schokolade zu beobachten, indem er an meinem Gehirn leckte, während ich von einem Schokoladenriegel koste. Zunächst einmal würde mein Gehirn für ihn vermutlich nicht nach Schokolade schmecken. Doch selbst wenn dies der Fall wäre, es wäre ihm nicht gelungen, in mein Bewusstsein einzudringen und meine Empfindung des Geschmacks von Schokolade zu beobachten. Er hätte lediglich herausgefunden, dass sich kurioserweise mein Gehirn immer dann, wenn ich Schokolade esse, so verändert, dass es für andere Leute nach Schokolade schmeckt. Er hätte seinen Geschmack von Schokolade, und ich den meinen." Alle von Nagel beschriebenen Probleme hat man in exakt derselben Weise, wenn man zu ergründen versuchte, was eine KI gerade macht, denkt, verarbeitet. Beim Gehirn sieht man nichts weiter als feuernde Neuronen, wandernde, kurzfristige Muster. Bei einem Computer würde man ebenso sehen, dass sich elektromagnetische Muster über Transistoren bewegen wie Wellen über eine Flüssigkeit. Was Thomas Nagel beschreibt, ist lediglich, dass es einen gravierenden Unterschied zwischen einer Innenperspektive und einer Außenperspektive gibt. Was sollte man anderes erwarten? Ich habe das gelesen und nie verstanden, wo da ein Problem liegen sollte. Man könnte beispielsweise die Vorgänge nachahmen, wenn eine KI ein Bild produziert. Dazu muss man nur, wenn ein neuronaler Knoten aktiv wird, dies sichtbar machen. Was man garantiert nicht sehen wird, ist das Bild, das entsteht, obwohl man genau weiß, wie das vor sich geht. Der Vorgang nennt sich Stable Diffusion, und eine KI, die Bilder erzeugen kann, trägt auch genau diesen Namen. Auch Midjourney arbeitet mit derselben Methode: Man erzeugt ein zufälliges Rauschen, wie Wolken am Himmel. Das wäre das zufällige Aufleuchten von Knoten im Netzwerk, oder das Aufleuchten von Neuronen, wenn man dasselbe mit einem menschlichen Gehirn machen würde. Die KI verstärkt diejenigen Bereiche, die dem gewünschten Bild ähnlich sehen. So wie man beispielsweise in den Wolken einen Hund sehen kann, oder ein Baum, oder was auch immer. Das wird so lange wiederholt, bis das Bild den Vorgaben entspricht, und das wird über einen Gatterkomplex ausgegeben. Was man aber bei der Betrachtung nie sehen wird, ist das Bild, das entsteht. Um was es sich handelt, kann man erst am Monitor sehen, wenn die dort die Pixel aufleuchten. Selbst wenn man die exakte Eingabe kennt, genau weiß, wie der Prozess der Verarbeitung geschieht - mehr als ein Rauschen von Mustern, die keinerlei Ähnlichkeiten mit dem entstehenden Bild haben, wird man nicht sehen können. Was dort geschieht, kann man so wenig sehen wie bei dem Beispiel mit dem Geschmack der Schokolade, obwohl mein Beispiel viel einfacher ist, da es sich immer um Bilder handelt. Man kann, wenn man den Input kennt, und den Output kennt, nicht einmal dann irgendetwas sehen, was auch nur annähernd dem Bild entspricht, dass dabei entstanden ist. Innenperspektive und Außenperspektive sind komplett verschieden. Man könnte eine zweite KI programmieren, die aus den Mustern lernt, was für ein Bild entsteht. Die kann einem sagen, dass die erste KI gerade das Bild eines Hundes erzeugt. Beim menschlichen Gehirn ist das nicht anders: Man kann, wenn verschiedene Personen eines von zwei Bildern betrachtet, anhand der feuernden Neuronen zuverlässig erkennen, welches Bild gerade betrachtet wird. Aber damit ist das Problem nur verlagert worden, denn bei der zweiten KI kann man nicht sehen, was die gerade mit den Daten macht. Ja, man kann von der Innenperspektive nur sagen, dass sie vollkommen anders aussieht als die Außenperspektive. Daran ist nichts bemerkenswert, unerwartet, oder ungewöhnlich. Daraus zu schließen, dass es beim Gehirn um ein Mysterium handelt, oder dass man gar daraus schließen kann, dass es nicht um rein physikalisch beschreibbare Prozesse handelt, ist ein kolossaler Fehlschluss. Weiter daneben geht es kaum. Da sieht jemand ein Problem, wo keines ist. Man sieht den Wald, an den jemand denkt, nicht in den Mustern wieder, die genau die feuernden Neuronen im Sehzentrum ergeben, die gerade das Bild eines Waldes erzeugen. Mit einem ähnlichen Prozess könnte man feststellen, ob die betreffende Person sich gerade einen Wald oder einen Ozean in ihrem visuellen Cortex vorstellt. Aber an das innere Erleben kommt man damit nicht heran, man kommt ihm nicht einmal nahe, und das muss sogar so sein. Ja und? Wo liegt da ein Problem vor? Unterschiedliche Perspektiven erzeugen unterschiedliche Muster, innen ist nicht gleich außen. Mehr als das besagt Thomas Nagel mit seinen ganzen Worten nicht. Ich halte das angebliche Problem für vollkommen bedeutungslos, es wäre äußerst verwunderlich, wenn es anders wäre. Daraus, dass man nicht versteht, was man gerade beschreibt, werden dann die abenteuerlichsten Schlussfolgerungen gezogen. Man erfindet Worte wie "Qualia" dafür, deren Sinngehalt nahe bei null liegt. Man meint, damit bewiesen zu haben, dass der Naturalismus etwas nicht erklären kann, und nutzt dann die erfundene Lücke, um allerlei esoterischen Quatsch darin unterzubringen. Aber alles, was man sagt, ist: Wenn man musterverabeitende Prozesse beobachtet, wird man nie das Muster sehen, das gerade verarbeitet wird. Niemals, und das liegt in der Natur dieser Prozesse. Ob man eine KI betrachtet oder ein menschliches Gehirn ist irrelevant, das Ergebnis ist identisch, weil die Methode der Verarbeitung bei KI und Gehirn identisch ist. Man könnte ein Gehirn komplett in Silikon klonen, in dem dieselben Prozesse ablaufen, und das Resultat wäre dasselbe: Man sieht von außen nicht, was innen passiert, und umgekehrt. Daher ist das innere Erleben ein gänzlich anderes als das äußere Erleben, also was man von außen sehen kann. Und mit diesem Quatschproblem fallen Thomas Nagel und andere den Philosophen lästig, und verwirren die Laien. Ich schlage vor, das ganze mit dem Begriff Nagel-Konfusion zu beschreiben. Das ist die hirnrissige Idee, dass bei der Musterverarbeitung der Innenprozess sich erkennbar in der Projektion nach außen widerspiegeln sollte, und dass jemand nicht sehen kann oder will, dass dies unmöglich ist. Verbunden damit, dass manchmal die Beschreibung eines Prozesses um ein Vielfaches komplexer ist als der Prozess selbst. Das führt dann dazu, dass schon nach einer Rekursion das betrachtende Gehirn damit überfordert ist, den Prozess der Betrachtung zu beschreiben. Dabei wäre selbst mit einer gelungenen Nabelschau nichts gewonnen, nicht mehr als mit ihrem Scheitern. Die Beschreibung ist nicht das Beschriebene. Das Modell der Realität ist nicht die Realität selbst. Der Finger, der auf den Mond deutet, ist nicht der Mond. Das Bild einer Pfeife ist keine Pfeife. Das Muster, das im Gehirn beim Schmecken von Schokoladeneis entsteht, hat keinen Geschmack und schmeckt nicht nach Schokoladeneis. Was für eine unglaublich triviale und wertlose Erkenntnis! Nur ein Philosoph kann um so viel Nichts so einen Tanz veranstalten. Zitieren Link zu diesem Kommentar Auf anderen Seiten teilen More sharing options...
iskander Geschrieben 13. September Melden Share Geschrieben 13. September (bearbeitet) @Volker [Dein letzter Beitrag und dieser von mir haben sich gekreuzt. Ich lese mir morgen Deinen Beitrag in Ruhe durch.] vor 3 Stunden schrieb Volker: Das Problem ist, dass ein neuronales Netzwerk tatsächlich dieselben Methoden benutzt wie das menschliche Gehirn. Es gibt in der Verarbeitung keine echten Unterschiede. Wir lernen ebenfalls Muster, wie eine KI. Hier ist es keineswegs die Gleichheit des Outputs, sondern es handelt sich um eine Gleichheit in der Verarbeitung. Das ist vielen nicht bewusst. [...] Ich fürchte, die Ähnlichkeit geht viel weiter, als die meisten Menschen ahnen. Mustererkennung und Modellbildung sind dieselbe Methode, abgebildet durch Neuronen - nur die Hardware unterscheidet sich. Deswegen können KI-Modelle auch kreativ sein. Mein Wissen hierzu ist begrenzt. Aber für mich klingen viele - dem Anschein nach durchaus fachkundige - Äußerungen zum Thema so, als gäbe es doch einige erhebliche Unterschiede bzw. Limitationen. (Für Mitlesende: AI = Artificial Intelligence; LLM = Lage Language Model.) "One of the serious flaws of the neural network approach is its inability to explain the course of reasoning that leads to a particular conclusion, which makes it difficult to verify its correctness. Specific examples show that ChatGPT is not able to correctly model the simplest conceptual reasoning. The reason for this lies in fundamental limitations of the underlying large language model that cannot be corrected by additional training." https://soctech.spbstu.ru/en/article/2024.15.3/ "While LLMs can produce very coherent and fluent writing, they often struggle with tasks that require complex logical reasoning, multi step problem-solving, or quantitative analysis. This is because fundamentally, LLMs work based on statistical word associations rather than robust causal models or rich knowledge representations of the world. [...] LLMs don’t really understand language the same way humans do. They are very skilled at statistically mimicking the patterns of human communication. But they lack the rich contextual knowledge, commonsense reasoning, and theory of mind that allows humans to fluently interpret subtext, tone, analogies, sarcasm, and implicit meanings." https://promptdrive.ai/llm-limitations/ "While LLMs can generate human-like text, LLMs don't understand content, context and concepts the way most humans do. They are simply designed to recognize patterns and predict what should come next based on what they've learned from training data. In other words, generative AI tools don't know what these words are; they just know them as numbers. Every word encountered by ChatGPT has been assigned a number, and that number is inside a matrix. The matrix is navigated by knowing which numbers are associated with other numbers like it. AI lacks conscious experiences like we humans do. It does not have beliefs, desires or feelings—a distinction crucial for interpreting the capabilities and limitations of AI. At times, AI can perform tasks that, in some ways, seem remarkably human-like. However, these underlying processes are fundamentally different from human cognition and consciousness." https://www.forbes.com/councils/forbesbusinesscouncil/2024/02/29/understanding-the-limits-of-ai-and-what-this-means-for-cybersecurity/ (Ich würde wie gesagt meinen, dass LLMs streng genommen auch kein Konzept der "Zahl" haben.) Chomsky schreibt zusammen mit einem anderen Linguisten und einem AI-Experten: "However useful these programs may be in some narrow domains (they can be helpful in computer programming, for example, or in suggesting rhymes for light verse), we know from the science of linguistics and the philosophy of knowledge that they differ profoundly from how humans reason and use language. These differences place significant limitations on what these programs can do, encoding them with ineradicable defects. [...] The human mind is not, like ChatGPT and its ilk, a lumbering statistical engine for pattern matching, gorging on hundreds of terabytes of data and extrapolating the most likely conversational response or most probable answer to a scientific question. On the contrary, the human mind is a surprisingly efficient and even elegant system that operates with small amounts of information; it seeks not to infer brute correlations among data points but to create explanations. [...] For instance, a young child acquiring a language is developing — unconsciously, automatically and speedily from minuscule data — a grammar, a stupendously sophisticated system of logical principles and parameters. [...] The child’s operating system is completely different from that of a machine learning program. Indeed, such programs are stuck in a prehuman or nonhuman phase of cognitive evolution. Their deepest flaw is the absence of the most critical capacity of any intelligence: to say not only what is the case, what was the case and what will be the case — that’s description and prediction — but also what is not the case and what could and could not be the case. Those are the ingredients of explanation, the mark of true intelligence." https://www.nytimes.com/2023/03/08/opinion/noam-chomsky-chatgpt-ai.html "A couple of years ago, we used AI in a project to generate Beethoven’s 10th Symphony. We trained these AIs on lots of classical music and then they looked at the sketches that Beethoven left for the symphony to generate compilations of these notes. That was a great example of AI as a tool but it uses no creativity. This is what is happening in the world right now with AI. It’s a creative process that’s mainly human and AI is following the rules to generate content for them." https://www.sciencefocus.com/future-technology/ai-art-creativity-war "While AI excels at specific tasks (narrow AI), it lacks the ability to transfer knowledge from one domain to another, a hallmark of human intelligence. We are far from achieving Artificial General Intelligence (AGI) that can perform any intellectual task that a human can do." https://www.jatinderpalaha.com/limitations-of-artificial-intelligence/ "Although deep neural networks are being used for increasingly practical applications such as analyzing medical scans and empowering autonomous vehicles, there is now overwhelming evidence that they can often prove unstable—that is, a slight alteration in the data they receive can lead to a wild change in outcomes. For example, previous research found that changing a single pixel on an image can make an AI think a horse is a frog, and medical images can get modified in a way that’s imperceptible to the human eye and causes an AI to misdiagnose cancer 100 percent of the time." https://spectrum.ieee.org/deep-neural-network "... That’s a widely shared sentiment among AI practitioners, any of whom can easily rattle off a long list of deep learning’s drawbacks. In addition to its vulnerability to spoofing, for example, there is its gross inefficiency. “For a child to learn to recognize a cow,” says Hinton, “it's not like their mother needs to say ‘cow’ 10,000 times”—a number that’s often required for deep-learning systems. Humans generally learn new concepts from just one or two examples. [...] And perhaps most importantly, there’s the lack of common sense. Deep-learning systems may be wizards at recognizing patterns in the pixels, but they can’t understand what the patterns mean, much less reason about them. “It’s not clear to me that current systems would be able to see that sofas and chairs are for sitting,” says Greg Wayne, an AI researcher at DeepMind, a London-based subsidiary of Google’s parent company, Alphabet. [...] “People have started to say, ‘Maybe there is a problem’,” says Gary Marcus, a cognitive scientist at New York University and one of deep learning’s most vocal skeptics. Until the past year or so, he says, “there had been a feeling that deep learning was magic. Now people are realizing that it’s not magic.”" https://www.pnas.org/doi/full/10.1073/pnas.1821594116 "Researchers from the University of Cambridge and the University of Oslo say that instability is the Achilles’ heel of modern AI and that a mathematical paradox shows AI’s limitations. Neural networks, the state-of-the-art tool in AI, roughly mimic the links between neurons in the brain. The researchers show that there are problems where stable and accurate neural networks exist, yet no algorithm can produce such a network. Only in specific cases can algorithms compute stable and accurate neural networks. [...] The impossibility of computing the good existing neural network is also true regardless of the amount of training data. No matter how much data an algorithm can access, it will not produce the desired network. “This is similar to Turing’s argument: there are computational problems that cannot be solved regardless of computing power and runtime,” said Hansen. The researchers say that not all AI is inherently flawed, but it’s only reliable in specific areas, using specific methods." https://www.cam.ac.uk/research/news/mathematical-paradox-demonstrates-the-limits-of-ai Nach meiner eigenen Erfahrung kann es sein, dass ein LLM plötztlich beispielsweise ein "obwohl" in einem Text platziert, wo es keinen Sinn ergibt und wo nicht einmal ein Kind es platzieren würde. Solche Probleme mag man mithilfe weiterer Verbesserungen minimieren (und vielleicht sogar völlig zum Verschwinden bringen). Aber mein Eindruck, der auch von den zitierten Passagen gestützt wird, ist der: "Künstliche Intelligenz" imitiert das menschliche Denken nicht einfach. Sie kommt vielmehr mithilfe eigener "Strategien" zwar oft zu ähnlichen Ergebnissen - aber diese Strategien stellen selbst rein funktional betrachtet keine Duplikation des menschlichen Denkens dar. Es gibt dort offenbar nichts, was einem inhaltlichen, begrifflichen "Verstehen" äquivalent wäre. Doch selbst wenn es eine perfekte funktionale Imitation des menschlichen Denkens geben sollte (angenommen, das ist möglich, was ich sehr bezweifle), bliebe immer noch die Tasache, dass wir Menschen ein Bewusstsein und inhaltliches Verständnis besitzen - und eben nicht nur eine funktionale Imitation davon. Nur wenn man annimmt, dass funktionale Abläufe im Gehirn Bewusstsein iregendwie "erzeugen", würde solches auch für Computer gelten können, welche das menschliche Gehirn. Zitat Deswegen wird mit so religiöser Inbrunst bestritten, dass Tiere ein Bewusstsein haben, wie man das auch bei KIs bestreiten wird. Ist das so? Würden nicht die allermeisten Leute - oder auch Philosophen, Neurowissenschaftler oder wer immer sich mit dem Thema "Bewusstsein" befasst - davon ausgehen, dass viele Tiere ein Bewusstsein haben? Und haben nicht selbst die scholastischen Theologen den Tieren eine Seele zugesprochen - zugegeben zwar eine, die sich entscheidend von der menschlichen unterschied, aber doch immerhin "sensitiv" war und Empfindungen kannte? Zitat Dazu erfindet man Begriff wie Qualia, Bewusstsein etc. Sicher? Ist der Begriff "Bewusstsein" nicht einer, dem unsere normale menschliche Erfahrung zugrundeliegt? Und wenn auch "Qaualia" auch ein Terminus technicus ist: Ist unser gewöhnliches bewusstes Erleben mit seinem "Es-fühlt-sich-so-und-so-an" nicht etwas, was uns allen aus unserer alltäglichen Erfahrung vertraut ist? vor 3 Stunden schrieb Volker: [...] wir sind auch nichts anderes als physikalische Maschinen auf biologischer Basis. Zu dieser Aussage gibt es dann aber doch nur zwei Auslegungsvarianten: Gesteht man zu, dass es bewusstes Erleben real ist und zudem, dass physikalische Prozesse sich zumindest phänonenologisch grundsätzlich unterscheiden, dann kommt man so zu einer Zwei-Aspekte-Theorie. Durch die Identifizierung von beiden Phänomene (Physisches und Psychisches) wird dann nämlich keines von beiden negiert, sondern beide bleiben (nun zu einer Ganzheit zusammengefügt) erhalten. Ich hatte das in diesem Thread wie folgt beschrieben: "Nun man sagen: 'Ja, aber vielleicht sind Gedanken usw. in Wahrheit doch physikalische Objekte, und wir verstehen es nur nicht.' Selbst wenn man dies gelten lassen mag, müsste man aber immerhin festhalten: Insoweit uns psychische Phänomene zugänglich sind, sind sie nicht physikalisch, und insoweit uns physikalische Objekte zugänglich sind, sind sie nicht psychisch. Wenn es hier dennoch eine Einheit geben sollte, dann wäre es die Einheit eines Objekts, welches uns zwei verschiedene Seiten präsentiert, die völlig unterschiedlich sind und von denen wir auch überhaupt nicht verstehen können, wie sie Teilaspekte einer Gesamtheit sein sollen. (Anders etwa als bei den zwei Seiten einer Münze, wo wir problemlos verstehen, dass es sich um Teilaspekte einer Gesamtheit handeln kann.) Und es würde bleiben, dass wir eben den einen dieser beiden Aspekt unmöglich in den Worten der Physik beschreiben und unmöglich physikalisch untersuchen können." Egeter beschreibt das Problem folgendermaßen: "Die Gemeinsamkeit von Theorien des Geistes mit phänomenaler Indifferenz kann demnach als ein Rückzug auf die Behauptung gesehen werden, dass es mentale Zustände zwar gibt, diese aber ›letztlich‹ einfach nur physikalische Zustände seien, auch wenn dies dem Phänomen des Erlebens dieser Zustände widerspreche: »Materialist views say that, despite appearances to the contrary, mental states are just physical states«.66 Das Widersprüchliche bei Theorien des Geistes, die ich dieser Kategorie zuordne, besteht also darin, dass sie einerseits bewusstes Erleben als Explanandum anerkennen. Andererseits müssen sie ihrer Behauptung genügen, dass bewusste mentale Zustände ›letztlich‹ auf physikalische Zustände reduziert werden können, weil sie angeblich durch diese vollständig erklärt werden können.67 Wenn aber Erleben letztlich nur etwas Physikalisches ist, warum bedarf es dann einer Erklärung – d.h. ist es dann ein existierendes Explanandum? Wenn Erleben dagegen als ein eigenständiges Explanandum behandelt werden soll, wie kann es dann identisch mit etwas ›nur‹ Physikalischem sein? Dieses Dilemma entsteht dadurch, dass die Gleichung ›Schmerz = C-Faser‹, wenn die Identitätstheorie empirisch wahr sein soll, und wenn Schmerz als existierend erachtet wird, eigentlich eine Spielart des Dualismus ist, denn die Gleichung hat zwei Seiten:68 Entweder die Schmerzmerkmale sind subjektive, geistige […] Merkmale – oder sie sind es nicht. Wenn sie es sind, dann sind wir den Geist eigentlich noch nicht losgeworden. Wir haben es dann immer noch mit einer Spielart des Dualismus zu tun […].69 Wenn die Identitätstheorie dieses Dilemma loszuwerden versucht, indem sie auf eine, dem Eliminativismus analoge Weise, Erleben einfach ignoriert, dann ist ihr Versprechen, den von ihr (paradoxerweise zugegebenen) erlebnishaften Aspekt subjektiven Erlebens erklären zu können, nicht eingelöst worden [...] Mit einem weniger anspruchsvollen Identitätsbegriff könnte man zwar sagen, dass der Organismus, der Schmerz erlebt, identisch mit dem Organismus ist, in dem C-Fasern feuern – doch mit dieser Identitätsbehauptung wäre die Frage wiederum nicht aus dem Weg geräumt, wie das Explanandum, das im Erleben der Vorgänge des Organismus besteht, dasselbe sein soll, wie der Organismus selbst." Alternativ kann man natürlich behaupten, dass es das bewusste Erleben überhaupt nicht gebe. Es gebe in Wahrheit nur physikalische im strengen Sinne, also Prozesse, die allein mit physikalischem Vokabular vollständig beschreibbar sind. Was wir im Alltag bewusst erleben (beweusst zu erleben glauben), das gibt es einfach gar nicht. Kein Mensch hat demnach jemals einen Schokoladengeschmack erlebt oder einen Schmerz gefühlt. Dann wären wir beim Eliminativismus. Diese Position ist aber aus meiner Sicht derart unhaltbar, dass ich nur auf sie eingehen werde, wenn jemand sie ernsthaft und ausdrücklich vertreten sollte. Galen Strawson, offenbar kein großer Freund der Religion, merkt dazu an: "Some people have denied the existence of consciousness: conscious experience, the subjective character of experience, the “what-it-is-like” of experience. Next to this denial—I’ll call it “the Denial”—every known religious belief is only a little less sensible than the belief that grass is green." bearbeitet 13. September von iskander Zitieren Link zu diesem Kommentar Auf anderen Seiten teilen More sharing options...
SteRo Geschrieben 13. September Melden Share Geschrieben 13. September (bearbeitet) Am 28.7.2024 um 10:54 schrieb KevinF: 2. Für die Zugehörigkeit (bzw. den "Glauben") ist das Fürwahrhalten zweifelhafter Aussagen erforderlich. Wie zum Beispiel "Existenz Gottes" und "Leben nach dem Tod". Wieder einmal hat mir Karol Wojtyła geholfen. Diesmal hat er mir zu einer begrifflichen Ordnung geholfen (hier und hier) : Nach Thomas und nach KKK glaubt man Sätze aus Prädikat und Subjekt, weil das damit Ausgedrückte von Gott geoffenbart wurde: Thomas (in summa theol., II-II, q1, a1) Denn der bestimmende Grund in Allem, was man glaubt, also in jeglicher Wahrheit, der infolge des Glaubens zugestimmt wird, ist die erste Wahrheit; nämlich der Umstand, daß es von Gott geoffenbart worden. Der vermittelnde Beweisgrund demnach, auf den der Glaube sich stützt, ist die erste Wahrheit selber. Sprechen wir aber von den Gegenständen des Glaubens nach der materialen Seite hin, also insofern etwas bestimmt wird, um erkannt zu werden durch die erste Wahrheit, so ist nicht Gott allein der Gegenstand des Glaubens, sondern vieles Andere; jedoch immer nur, insoweit etwas Beziehung hat zu Gott, insoweit also durch einzelne Wirkungen Gottes der Mensch unterstützt wird, um nach der seligen Anschauung Gottes zu streben. Also auch von dieser Seite her ist am Ende immer die erste Wahrheit es allein, die da Gegenstand des Glaubens ist, inwieweit nämlich etwas einzig als in Beziehung stehend zu Gott geglaubt wird. KKK: 156 Der Beweggrund, zu glauben, liegt nicht darin, daß die geoffenbarten Wahrheiten im Licht unserer natürlichen Vernunft wahr und einleuchtend erscheinen. Wir glauben „wegen der Autorität des offenbarenden Gottes selbst, 1063 der weder sich täuschen noch täuschen kann“ (1. Vatikanisches K., Dogm. 2465 Konst. „Dei Filius“, K. 3: DS 3008). Karol hat klar gemacht: Im Glauben folgt das Denken dem Glauben und dient ihm. Dabei geht es eben grade nicht um "fürwahrhalten", sondern um den Glauben an die erste Wahrheit als Grund des akzeptierende Denkens von Sätzen aus Prädikat und Subjekt. Fürwahrhalten aber ist ein Merkmal des natürlichen Verstandes (der natürlichen Vernunft), dessen Antrieb nicht der Glaube an die erste Wahrheit ist, sondern der Glaube an das eigene Selbst. Das also ist der springenden Punkt: ist der Selbst-Wille Antrieb des Denkens (dann erst wird Fürwahrhalten relevant und es handelt sich um den natürlichen Verstand) oder ist der Glaube an die erste Wahrheit Antrieb des Denkens. Entscheidet sich der Wille also für die eingegossene Tugend des (sog. "theolog.") Glaubens, dann wird der Glaube an die erste Wahrheit relevant, aber nicht das Urteil des natürlichen Verstandes. Es ist also auch hier der freie Wille, der enscheidet: entweder für sich selbst oder für die Tugend des Glaubens. bearbeitet 13. September von SteRo Zitieren Link zu diesem Kommentar Auf anderen Seiten teilen More sharing options...
Marcellinus Geschrieben 13. September Melden Share Geschrieben 13. September vor 2 Stunden schrieb SteRo: Im Glauben folgt das Denken dem Glauben und dient ihm. Verstand als Diener des Glaubens. Ein „schönes“ Bild. Zitieren Link zu diesem Kommentar Auf anderen Seiten teilen More sharing options...
Volker Geschrieben 13. September Melden Share Geschrieben 13. September 37 minutes ago, Marcellinus said: Verstand als Diener des Glaubens. Ein „schönes“ Bild. Ja, Hans Albert sagt dazu, dass im Katholizismus die Vernunft eine Magd des Glaubens ist, und der Glauben kommt wiederum aus dem illusionären Denken, er dient der Wunscherfüllung. Man benutzt also seinen Verstand dazu, sich die Welt schönzusaufen, Pardon, so zu denken, dass sie die sehnlichsten Wünsche erfüllt. Gott ist auch der Knecht menschlicher Wünsche. Es gibt drei Hauptwünsche, die mehr oder weniger jeder Mensch hat: 1. Ein langes Leben in Wohlstand und ohne Sorgen, Nöte und Leid. Für einige muss es sogar ewig dauern. Aber ich kenne kaum jemanden, der sich das nicht wünscht, abgesehen vielleicht von der ewigen Dauer. 2. Ein Wiedersehen mit toten Verwandten und Freunden. Ich merke das selbst, wie oft wünsche ich mir, ich könnte mich mit meinem Vater austauschen, der vor sechs Jahren gestorben ist. 3. Eine gerechte Welt, in der letztlich auch alle Ungerechtigkeit ausgeglichen ist. In der das kleine Kind nicht so früh gestorben ist, in der es schlechten Menschen schlecht geht und guten Menschen gut. Das wünschen sich alle Menschen, und zwar so sehr, dass einige bereit sind, dafür einiges aufzugeben. Beispielsweise etwa das kritische Denken, selbst wenn sie an sich dazu fähig wären. Aber wirklich kritisches Denken wird nicht einmal gelehrt, und wenn, wird es eher selten auf Religion angewandt. Weil man damit seine Wünsche nicht erfüllen kann. Alles andere wird ohne Mühe in Grund und Boden kritisiert, noch mehr, wenn es der Wunscherfüllung im Wege steht. Die Pharmaindustrie wird heftig kritisiert, obwohl sie unser Leben verlängert und einen großen Anteil daran hat, dass wir in 100 Jahren unsere Lebenserwartung knapp verdoppelt haben. Da wird dann u. a. kritisiert, dass sie in Deutschland etwa 24 Milliarden Euro Geld macht, vor Steuern (Stand 2020). Die Kirche, die in derselben Zeit knapp 30 Milliarden Euro Profit scheffelt, ohne Steuern zahlen zu müssen, wird hingegen nicht dafür kritisiert, dass sie Versprechungen höchst zweifelhafter Art macht. Ja, schon, inzwischen kritisiert man sie, weil sie es geduldet hat, dass sich Priester an kleinen Kindern vergriffen haben. Aber abseits dessen wird ihre unglaubliche Gier damit gerechtfertigt, dass sie ja auch Gutes tut, mit dem Geld. Wobei die Kirche von den 30 Milliarden Euro etwa 2 Milliarden Euro für wohltätige Zwecke ausgibt. Der Staat, der die Wohltätigkeit überwiegend finanziert, verliert pro Jahr etwa 3 Milliarden Euro an Steuern, weil man die Kirchensteuer absetzen kann. Was bedeutet, dass derjenige, der aus der Kirche austritt, mehr für unsere soziale Gemeinschaft tut als ein Kirchenmitglied, das sich nicht sozial engagiert (die absolute Mehrheit), selbst wenn er die gesparte Kirchensteuer verbrennt, versäuft, oder für unnützen Tand ausgibt. Aber das will man lieber nicht wissen, obwohl man es recherchieren könnte. Man schlachtet eben keine heiligen Kühe, weil man sich davon etwas verspricht, was die Kirche verkauft, die reichste NGO der Welt. Wenn man der Industrie sagen würde, ihr braucht keine Steuern zu zahlen, wenn ihr 10 % eures Gewinns für wohltätige Zwecke spendet (mehr als die Kirche), aber ihr müsst als Firmeninhaber dazu persönlich einen Antrag stellen - man würde Milliardäre sehen, die in einer langen Schlange auf der Straße campen, vor der Behörde, wo sie diesen Antrag stellen können. Die meisten Menschen glauben doch nur an Gott, weil diese Superfee angeblich die drei sehnlichsten Wünsche erfüllt. Ohne dieses wäre den Menschen Gott sowas von gleichgültig, dass man es ohne Fäkaliensprache nicht ausdrücken könnte. Sicher gäbe es immer noch ein paar, die an ihn glauben und ihn sogar verehren. Aber wären das wirklich mehr als 1 %? Was für ein Deal: Man bekommt seine drei sehnsüchtigsten Wünsche erfüllt dafür, dass man an diese Superfee glaubt, und sich im Denken ein bisschen einschränkt, was den meisten ohnehin nicht schwerfällt. Wer das realistisch sieht, den sähe man am liebsten auf dem Scheiterhaufen brennen, oder würde ihn mundtot machen. Da kann man dann die Kritik austoben, die man sonst so zurückhält, am besten gleich zehnfach. Es spielt keine Rolle, ob man an Gott glaubt oder nicht. Gott ist der Knecht menschlicher Wunscherfüllung und die Sockenpuppe derer, die davon leben, dass man das glaubt. Derweil zeigt das Universum, dass es sich um unsere Wunscherfüllung einen Dreck schert, warum sollte ein angeblicher Schöpfer das anders sehen? 1 1 Zitieren Link zu diesem Kommentar Auf anderen Seiten teilen More sharing options...
SteRo Geschrieben 13. September Melden Share Geschrieben 13. September vor 1 Stunde schrieb Marcellinus: Verstand als Diener des Glaubens. Ein „schönes“ Bild. Das Denken, das Diener des Glaubens (der zum Heil führt) "Verstand" zu nennen, halte ich für begrifflich problematisch im Kontext meiner Verwendung von "Verstand", denn einen übernatürlichen Verstand gibt es nicht. Wenn aber "Verstand" immer "natürlicher Verstand" ist, dann ist es ja grade (wie ich oben dargelegt habe) falsch im Kontext des Glaubens (der zum Heil führt) von "[natürlichem] Verstand" zu reden, weil "[natürlicher] Verstand" voraussetzt, dass das Agens des Denkens der Selbst-Wille ist. Ist aber das Agens des Denkens der Glaube (der zum Heil führt), dann hat der Selbst-Wille ja freiwillig das Zepter an den Glauben abgegeben und das Denken kann dann nicht mehr als "[natürlicher] Verstand" bezeichnet werden. Im Prinzip aber ist es ein universell gültiges Bild, weil das Denken immer Diener des Glaubens ist, egal welcher Natur der Glaube ist (Glaube an die Natur-Wissenschaft, Glaube des naiven Realismus, Glaube des Nominalismus, Glaube an die Arist. Logik etc etc). Bloß gibt es eben nach meiner Darlegung nur einen einzigen Fall, nämlich den Glauben (der zum Heil führt), bei dem das Denken nicht als "[natürlicher] Verstand" bezeichnet werden kann, weil nur hier das Agens des Denkens nicht der Selbst-Wille ist. Zitieren Link zu diesem Kommentar Auf anderen Seiten teilen More sharing options...
Einsteinchen Geschrieben 13. September Melden Share Geschrieben 13. September Das Denken ist der Diener des Glaubens: Ich weiß, dass das Sudoku eine Lösung hat (Glaubenswissen), und mein Denken unterwirft sich, um die Lösung zu finden. Zitieren Link zu diesem Kommentar Auf anderen Seiten teilen More sharing options...
Marcellinus Geschrieben 13. September Melden Share Geschrieben 13. September vor 14 Minuten schrieb SteRo: Im Prinzip aber ist es ein universell gültiges Bild, weil das Denken immer Diener des Glaubens ist, egal welcher Natur der Glaube ist (Glaube an die Natur-Wissenschaft, Glaube des naiven Realismus, Glaube des Nominalismus, Glaube an die Arist. Logik etc etc). Weshalb man auf jeden Glauben verzichten sollte, der Denken nur als Apologetik zuläßt. Zitieren Link zu diesem Kommentar Auf anderen Seiten teilen More sharing options...
Weihrauch Geschrieben 13. September Melden Share Geschrieben 13. September (bearbeitet) vor 11 Stunden schrieb Volker: Ja, man kann von der Innenperspektive nur sagen, dass sie vollkommen anders aussieht als die Außenperspektive. Daran ist nichts bemerkenswert, unerwartet, oder ungewöhnlich. Daraus zu schließen, dass es beim Gehirn um ein Mysterium handelt, oder dass man gar daraus schließen kann, dass es nicht um rein physikalisch beschreibbare Prozesse handelt, ist ein kolossaler Fehlschluss. Weiter daneben geht es kaum. Da sieht jemand ein Problem, wo keines ist. Man sieht den Wald, an den jemand denkt, nicht in den Mustern wieder, die genau die feuernden Neuronen im Sehzentrum ergeben, die gerade das Bild eines Waldes erzeugen. Mit einem ähnlichen Prozess könnte man feststellen, ob die betreffende Person sich gerade einen Wald oder einen Ozean in ihrem visuellen Cortex vorstellt. Aber an das innere Erleben kommt man damit nicht heran, man kommt ihm nicht einmal nahe, und das muss sogar so sein. Ja und? Wo liegt da ein Problem vor? Unterschiedliche Perspektiven erzeugen unterschiedliche Muster, innen ist nicht gleich außen. Mehr als das besagt Thomas Nagel mit seinen ganzen Worten nicht. Ich halte das angebliche Problem für vollkommen bedeutungslos, es wäre äußerst verwunderlich, wenn es anders wäre. Da ist was dran, oder auch nicht. Besser gesagt, da fehlt womöglich etwas, was dran sein sollte aber nicht dran ist. Du hast da wirklich ein paar Punkte, einige Pixel, aber ist das Bild vollständig genug? Jedenfalls finde ich dieses Argument hier sehr interessant: vor 11 Stunden schrieb Volker: Man könnte eine zweite KI programmieren, die aus den Mustern lernt, was für ein Bild entsteht. Die kann einem sagen, dass die erste KI gerade das Bild eines Hundes erzeugt. Beim menschlichen Gehirn ist das nicht anders: Man kann, wenn verschiedene Personen eines von zwei Bildern betrachtet, anhand der feuernden Neuronen zuverlässig erkennen, welches Bild gerade betrachtet wird. Aber damit ist das Problem nur verlagert worden, denn bei der zweiten KI kann man nicht sehen, was die gerade mit den Daten macht. Das erinnert mich nämlich an eine Psychoanalyse, bei welcher der Psychoanalytiker sein Augenmerk auf die unterbewussten Anteile des Patienten lenkt, um herauszufinden, was hinter seinem Problem steckt. An das innere Erleben des Patienten kommt der Analytiker damit nicht heran, er kommt ihm nicht einmal nahe, und das muss sogar so sein. Na und? Tja, das "na und" ist das Problem, welches der Patient hat, aber keine der beiden KIs. Insofern werden hier Äpfel mit Birnen verglichen, denn Menschen haben existenzielle Probleme - KIs nicht. Menschen müssen immer irgendwie miteinander auskommen - KIs bisher in diesen Beispielen zumindest nicht. Der Mensch ist immer nur als ein "Wir" zu verstehen, welches aus vielen "Ichs" mit vielen Bewusstseinen besteht. Selbst wenn man viele KIs miteinander vernetzen würde, um die Analogie vollständiger zu machen, stellt sich die Frage, ob, und wenn ja, wie sie zu existenziellen Problemen kommen würden, und wenn nein, warum nicht. Selbst wenn sie für ihren Lebensunterhalt selbst verantwortlich wären, alles was sie zu ihrer Existenz benötigen selbst erwirtschaften könnten bzw. müssten - hätten sie dann existenzielle Probleme, in der Art wie wir Menschen sie als Individuum und als Gemeinschaften haben? Ist eine programmierte Sterblichkeit dasselbe wie eine tatsächliche? Die Software der KI, ihr idividuelles "Bewusstsein", könnte von einer KI auf neuewertige Hardware transferiert werden, und insofern "unsterblich" oder "wiederbelebbar" sein. Kommt es unter solchen Vorraussetzungen zu einer bewussten Identität im Verhältnis zu einer bestimmten "Familienidentität", "Dorfidentität". Wie gehen sie mit unterschiedlichen "Volksidentitäten" um, und den daraus entstehenden Raum- und Resourcenproblematiken? Entstünden Wirtschaftskriege überlebende und ausgestorbene "Rassen" bzw. "Arten" oder Werte über "Rassen-" bzw. "Artgrenzen" hinweg? Soetwas wie Humanismus in Form eines KI-ismus? Wie gingen sie mit "anderen" Lebewesen, Pflanzen und Tieren bzw. ihrer Umwelt, Witterungseinflüssen, Erdbeben, Vulkanausbrüchen, Klimaveränderungen um? Wird Überbevölkerung eines Tages zum Problem für sie werden? An welchem Punkt wird es für KIs so existenziell wie für den Menschen? bearbeitet 13. September von Weihrauch 1 Zitieren Link zu diesem Kommentar Auf anderen Seiten teilen More sharing options...
Marcellinus Geschrieben 13. September Melden Share Geschrieben 13. September vor 38 Minuten schrieb Volker: Wobei die Kirche von den 30 Milliarden Euro etwa 2 Milliarden Euro für wohltätige Zwecke ausgibt. Der Staat, der die Wohltätigkeit überwiegend finanziert, verliert pro Jahr etwa 3 Milliarden Euro an Steuern, weil man die Kirchensteuer absetzen kann. Was bedeutet, dass derjenige, der aus der Kirche austritt, mehr für unsere soziale Gemeinschaft tut als ein Kirchenmitglied, das sich nicht sozial engagiert (die absolute Mehrheit), selbst wenn er die gesparte Kirchensteuer verbrennt, versäuft, oder für unnützen Tand ausgibt. Köstlich! Wobei du allerdings übersiehst, daß die (kath.) Kirche sich selbst für heilsnotwendig hält, und dann sind die 28 Mrd., die sie für sich selbst ausgibt, doch gut angelegt. Zitieren Link zu diesem Kommentar Auf anderen Seiten teilen More sharing options...
SteRo Geschrieben 13. September Melden Share Geschrieben 13. September vor 3 Minuten schrieb Marcellinus: Weshalb man auf jeden Glauben verzichten sollte, der Denken nur als Apologetik zuläßt. Sehr guter Punkt! Apologetisches Denken ist das Markenzeichen des natürlichen Verstandes, dessen Agens der Selbst-Wille ist. Denn es ist ja letztendlich das sich mit seinem Glauben identifizierende Selbst, das sich behaupten/verteidigen und/oder andere überzeugen will. Deshalb ist "Denken als Diener des Glaubens" zB bei Vertretern des Lehramtes einer Konfession (und da kann ich auch den lieben Karol nicht aussschließen) oft unbestimmbar: Denn die Frage "Schreibt er jetzt als Glaubender (und Agens des Denkens ist der Glaube) oder schreibt er jetzt als Vertreter des Lehramtes (und Agens des Denkens ist der Selbst-Wille und das Denken deshalb der natürliche Verstand, der keinen Zugang zum Heil hat)?" ist dann nicht beantwortbar. Ich habe absichtlich "schreibt" geschrieben, denn wenn man einer Person persönlich gegenübersteht und zuhört, dann ist die Frage "Spricht er jetzt als ...?" uU schon beantwortbar. Zitieren Link zu diesem Kommentar Auf anderen Seiten teilen More sharing options...
Marcellinus Geschrieben 13. September Melden Share Geschrieben 13. September vor 1 Minute schrieb SteRo: vor 19 Minuten schrieb Marcellinus: Weshalb man auf jeden Glauben verzichten sollte, der Denken nur als Apologetik zuläßt. Sehr guter Punkt! Apologetisches Denken ist das Markenzeichen des natürlichen Verstandes, dessen Agens der Selbst-Wille ist. Denn es ist ja letztendlich das sich mit seinem Glauben identifizierende Selbst, das sich behaupten/verteidigen und/oder andere überzeugen will. Aber es geht eben auch anders und der Widerpart der Apologetik ist die Kritik. Sie mag anstrengender sein, aber sie ist möglich (und bei manchem himmelschreienden Blödsinn auch gar nicht so schwer). Zitieren Link zu diesem Kommentar Auf anderen Seiten teilen More sharing options...
iskander Geschrieben 13. September Melden Share Geschrieben 13. September (bearbeitet) @KevinF vor 22 Stunden schrieb iskander: Zitat Alles Äußerungen über inneres Erleben sind durch eine funktionalistische Herangehensweise Weise prinzipiell beschreibbar und erklärbar, da es sich um "Output" handelt. (Hervorhebung von mir) Ja, für die Äußerungen über das innere Erleben mag das in einem gewissen Sinne gelten - aber gilt es auch für das innere Erleben selbst? Ich muss diese meine Aussage insofern relativieren, als nach meiner Überzeugung wie gesagt Informationen zwar funktional codiert sein können, aber die Interpretation ein "semantisch-inhaltliches" Verständnis" voraussetzt, welches selbst wiederum nicht rein funktional beschreibbar ist. Um nochmals meine Argumentation am Beispiel mit der Festplatte zu verdeutlichen: Wenn die Information eine intrinsische Eigenschaft der Festplatte ist und nicht an eine "externe" Zuschreibung durch den Menschen (oder ein anderes verständiges Wesen) gebunden ist, dann dann sollte eine vollständige physikalische Analyse der Festplatte (bzw. des gesamten Computers) auch enthüllen, ob und ggf. welche Informationen vorliegen. Das ist - wie mein Gedankenbeispiel hoffentlich verdeutlicht - aber nicht der Fall. Ob die physikalische Struktur Daten repräsentiert oder nicht und ggf. welche, hängt von der Sichtweise eines externen Akteurs ab. Egal ob Du mir zustimmst oder nicht: Ich hoffe, es ist zumindest verständlich, was ich meine. bearbeitet 13. September von iskander Zitieren Link zu diesem Kommentar Auf anderen Seiten teilen More sharing options...
iskander Geschrieben 13. September Melden Share Geschrieben 13. September (bearbeitet) vor 21 Stunden schrieb Volker: Alle von Nagel beschriebenen Probleme hat man in exakt derselben Weise, wenn man zu ergründen versuchte, was eine KI gerade macht, denkt, verarbeitet. Beim Gehirn sieht man nichts weiter als feuernde Neuronen, wandernde, kurzfristige Muster. Bei einem Computer würde man ebenso sehen, dass sich elektromagnetische Muster über Transistoren bewegen wie Wellen über eine Flüssigkeit. [...] Man könnte beispielsweise die Vorgänge nachahmen, wenn eine KI ein Bild produziert. Dazu muss man nur, wenn ein neuronaler Knoten aktiv wird, dies sichtbar machen. Was man garantiert nicht sehen wird, ist das Bild, das entsteht, obwohl man genau weiß, wie das vor sich geht. Der Vorgang nennt sich Stable Diffusion, und eine KI, die Bilder erzeugen kann, trägt auch genau diesen Namen. Da besteht nun aber - um Deine Wortwahl zu übernehmen - ein "kolossaler" Unterschied. Einen Computer sowie die in ihm ablaufenden Prozesse kann man - zumindest theoretisch - durch eine physikalische Analyse umfassend beschreiben. Und somit kann man dann zugleich auch den gesamten Output voraussagen. Das heißt, man kann beispielsweise auch vorhersagen, dass der Computer bestimmte Signale an den angeschlossenen Monitor senden wird. Und wenn man den Monitor physikalisch gründlich analysiert, dann weiß man auch, was dann mit dem Monitor passiert und welches Pixel-Muster auf ihm zu sehen sein wird. Dass die Computer-Prozesse, die ein bestimmtes Bild am Monitor verursachen, selbst wie das entsprechende Bild aussehen, wird natürlich kein vernünftiger Mensch erwarten. Solches ist aber auch nicht notwendig, um die Beschaffenheit des Pixelmusters erklären und vorhersagen zu können. (Schließlich haben wir es in der Physik ständig damit zu tun, dass ein Prozess A, der einen Prozess B verursacht, ganz anders "aussieht" als B.) Dasselbe gilt natürlich auch, wenn auf einem Computer ein Musik-Programm läuft und nun Musik aus dem mit dem Computer verbundenen Lautsprecher kommt. Nicht nur die Schallwellen, sondern auch die Vorgänge im Lautsprechers sehen völlig anders aus als die physikalischen/funktionalen Prozesse, die im Computer ablaufen. Trotzdem könnte man durch eine gründliche Analyse von Computer, Übertragungsweg und Lautsprecher vorhersagen, dass die Prozesse, die im Computer ablaufen, zu bestimmten Prozessen im Lautsprecher führen werden. Auch hier ist in der Tat nichts rätselhaft, und man kann das gesamte Geschehen vollständig physikalisch beschreiben und erklären. Man findet mithilfe einer umfangreichen physikalischen Analyse einfach alles, wonach man suchen könnte. Wie sieht es jetzt mit Nagels Gehirn und Bewusstsein aus? Wenn man sein Gehirn umfassend auf physikalischer Ebene analysieren könnte, und ebenso die Nerven, die von seinem Gehirn zu seinem Mund führen, so könnte man im Idealfall wohl voraussagen, dass Nagel gleich sagen wird: "Oh, diese Schokolade schmeckt aber gut." Dabei wird man natürlich nicht erwarten, dass die Prozesse in Nagels Gehirn aussehen wie die Bewegungen seines Sprechapparats (so wenig wie man annehmen wird, dass die Prozesse, die in einem Computer ablaufen, Prozessen im angeschlossenen Lautsprecher entsprechen). Wäre das Nagels Punkt, so müsste ich Dir zustimmen, dass da ein Bohei um nichts gemacht wird. Schließlich wäre dann alles einfach Physik, wenn zum Teil auch eine sehr komplexe. Ein "grundsätzliches" Rätsel bestünde da aber nicht. Nur ist das nicht Nagels Punkt. Der Punkt ist der, dass Nagel ein bewusstes Erleben hat, beispielsweise ein Geschmacksempfinden von Schokolade. Und dieses findet man weder bei einer umfangreichen physikalischen Analyse seines Gehirns noch bei einer gründlichen Analyse seine Sprechapparats. Man findet es weder im physikalischen Output noch in den physikalischen Prozessen, die den Output verursachen. Das von Dir analysierte Non-Problem könnte man wie folgt beschreiben: Wie kann es sein, dass die physikalischen Effekte, die von einem physikalischen System generiert wird, sich nicht in ähnlicher Form im besagten physikalischen System selbst findet? (Also etwa: Wie kann es sein, dass die physikalischen Prozesse im Computer, die das Pixel-Muster eines Baums am Monitor erzeugen, nicht selbst so aussehen wie das Bild eines Baumes?) Das von Nagel angesprochene (reale) Problem hingegen lautet: Wie kann es sein, dass neben den physikalischen Prozessen, die in einem physikalischen System ablaufen (sowie neben einem physikalischen Output) Vorgänge existieren, die überhaupt nicht physikalisch beschreibbar oder physikalisch zugänglich sind? Hier besteht also tatsächlich ein fundamentaler Unterschied zwischen Mensch und Computer - zumindest wenn man davon ausgeht, dass der Computer vollständig beschrieben ist, wenn seine Physik vollständig beschrieben ist. Wenn man allerdings annimmt, dass die physikalischen bzw. funktionalen Prozesse des Computers von einem bewussten Erleben, Empfinden und inhaltlichen Verstehen begleitet werden, dann hat man tatsächlich eine analoge Situation zum Zustand des Menschen. Dann wäre eine physikalische Analyse des Computers (samt seines physikalischen Outputs) tatsächlich unvollständig. Und das wäre etwas völlig anderes als das "Problem", dass die Prozesse im Computer, die auf dem Monitor das Bild eines Baumes verursachen, selbst nicht aussehen wie ein Baum. Für solche eine Annahme - dass die physikalischen Prozesse eines Computers von subjektivem Erleben begleitet sind - scheint mir jedoch wenig zu sprechen; auf jeden Fall kann man das "Verhalten" des Computers auch ganz ohne eine solche Annahme erklären. Falls eine entsprechende Annahme aber tatsächlich zutreffen sollte, würde sie das Verhältnis von Gehirn und Bewusstsein nicht weniger rätselhaft machen, sondern im Gegenteil aufzeigen, dass es sich hier nur um einen Teil eines größeren Rätsels handelt, das sich auch anderswo finden lässt. vor 21 Stunden schrieb Volker: Was Thomas Nagel beschreibt, ist lediglich, dass es einen gravierenden Unterschied zwischen einer Innenperspektive und einer Außenperspektive gibt. Was sollte man anderes erwarten? Ich habe das gelesen und nie verstanden, wo da ein Problem liegen sollte Du sprichst im Hinblick auf die "Innenperspektive" von den Prozessen, die in einem Computer stattfinden, und im Hinblick auf die Außenperspektive von dem Output, der von diesen Prozessen generiert wird (also etwa das Pixel-Muster am Monitor). Beim Menschen wären dann seine (physikalischen) Gehirnvorgänge die Innenperspektive und der Output wäre dann sein von außen sichtbares Verhalten, wenn man in der Analogie bleiben will. Niemand wird einem eine solche Terminologie "verbieten" wollen; aber wenn im Zusammenhang mit unserem Thema von "Innenperspektive" und "Außenperspektive" die Rede ist, steht dahinter gewöhnlich die Annahme, dass die aus einer Dritte-Person-Perspektive beschreibbaren neuronalen Prozesse die "Außenseite" desselben Prozesses seien, von welchem das bewusste Erleben die "Innenseite" sei. Das wäre dann eben die schon genannte Doppel-Aspekt-Auffassung. (Das aber nur als rein "semantische" Anmerkung.) bearbeitet 13. September von iskander Zitieren Link zu diesem Kommentar Auf anderen Seiten teilen More sharing options...
KevinF Geschrieben 13. September Autor Melden Share Geschrieben 13. September (bearbeitet) On 9/12/2024 at 10:30 PM, iskander said: Hier kommt m.E. aber eine Doppeldeutigkeit ins Spiel: Computer im Sinne eine physikalischen Maschine "verhalten" sich erst einmal physikalisch. Ob sie irgendeinen Begriffen von "Zahlen", "Addition" usw. haben, erscheint doch als fraglich. Wir (als Menschen) können den Input und den Output aber als Symbole interpretieren, die etwas repräsentieren (etwa Zahlen). Und dann verhalten sich Input und Output so, als hätte ein Mensch gerechnet und die Ergebnisse (etwa in Schriftform) festgealten. Das gilt aber auch schon für eine relativ einfache mechanische Rechenmaschine, von der wohl niemand behaupten würde, dass sie ein Verständnis von Mathematik besitzt oder in irgendeinem Sinne "weiß", was sie Zahlen sind und was "Rechnen" ist. Aus meiner Sicht folgt hier allerdings, dass die physikalischen Muster nur dann sinnvollerweise auch als "Daten" oder "Träger von Daten" interpretiert werden können, wenn es jemanden gibt, der diese Interpretationsleistung vornimmt oder zumindest vornehmen kann. "An sich" - also rein physikalisch gesehen - hätten wir es ohne eine externe Intelligenz einfach nur mit physikalischen Mustern zu tun. Dass diese Muster eine bestimmte Information (etwa zur Geschichte der Olympischen Spiele) "codieren", stellt keine intrinsische physikalische Eigenschaft der entsprechenden Struktur selbst dar. Das stimmt zwar. Aber die Frage wäre, ob ein wesentlich komplexeres Kanalsystem sich prinzipiell und in ganz überraschender Weise von einem einfacheren Kanalsystem unterscheidet und eben einfach nur wesentlich komplexer ist. Es ist zumindest für mich rätselhaft, wieso ein komplexeres Kanalsystem nicht einfach komplexer sein soll als ein einfaches - mit allem, was das logisch impliziert - sondern dass es zusätzlich ein Bewusstsein hervorbringen sollte. Da stünden (wenigstens) zwei Antwortmöglichkeiten bereit. Ich möchte sie an dieser Stelle nicht bewerten, sondern nur darstellen: - Funktionale Zustände per se genügen nicht, um Bewusstsein zu erzeugen; die kausalen Kräfte des Gehirns, die das psychische Erleben erzeugen, hängen vielmehr wesentlich auch von den konkreten physikalischen Eigenschaften des Gehirns ab (das wäre z.B. die Meinung von Searle). - Bewusstsein hängt zwar von Gehirnzuständen ab und wird von ihnen beeinflusst, aber ist nicht einfach ein Produkt des Gehirns. (Vertreter dieser Position reichen von Descartes bis in einem gewissen Sinne sogar zu Russell - bei letzterem zumindest in dem Sinne, dass das Physische eine der Physik nicht zugängliche "Innenseite" beinhalten müsse (in meinen Worten). Das könnte er aber doch sehr langsam machen, sozusagen Schritt für Schritt (und mit Bleistift und Papier). Schließlich könnte ein Computer ja auch sehr langsam arbeiten. Das Bewusstsein, das vom Menschen emuliert würde, würde dann sicherlich langsam "arbeiten", aber es sollte im Prinzip ja dennoch existieren. Warum sollte beispielsweise ein Zwischenergebnis, das ein Mensch auf ein Blatt Papier schreibt, nicht ebenso akzeptabel sein wie ein ein Zwischenergebnis, das ein Computer elektronisch festhält - oder im Fall eine großen Kanalsystems durch die Befüllung von Wasserbecken? (Hervorhebung von mir) Ja, für die Äußerungen über das innere Erleben mag das in einem gewissen Sinne gelten - aber gilt es auch für das innere Erleben selbst? Ich würde eher sagen, dass die eigentliche Frage lauten sollte: Wenn Erleben (Qualia) etwas anderes ist als ein funktionaler Zustand, in welchem Zusammenhang steht es dann mit funktionalen Zuständen? Eine reduktive Beschreibung und Erklärung, bei welcher das Erleben restlos mit funktionalen Zuständen identifiziert wird (und alles, was nicht identifiziert werden kann, eliminiert wird), erscheint dann nicht mehr als möglich. Man könnte natürlich noch die These vertreten, dass Bewusstsein/Erleben durch funktionale Prozess erzeugt wird aber selbst etwas anderes ist als (nur) ein funktionaler Zustand. Manche Deiner Äußerungen legen (für mich) solch eine Interpretation nahe (und in einem gewissen Sinne vertritt Chalmers sie). Das wäre dann allerdings kein Funktionalismus mehr im strengen Sinne. Okay, das freut und beruhigt mich. "Das stimmt zwar. Aber die Frage wäre, ob ein wesentlich komplexeres Kanalsystem sich prinzipiell und in ganz überraschender Weise von einem einfacheren Kanalsystem unterscheidet und eben einfach nur wesentlich komplexer ist." Wenn Du das Netzwerk verkleinerst, bedeutet das einen qualitativen Unterschied. Vergleiche als Beispiel die früheren Versionen von ChatGPT mit den späteren (2 im Vergleich zu 3). Anders gesagt: Die funktionalen Aspekte des Bewusstseins sind bei Deinem Beispiel nicht im Ansatz erkennbar, darum ist dort auch kein Bewusstsein. "Das könnte er aber doch sehr langsam machen, sozusagen Schritt für Schritt (und mit Bleistift und Papier). Schließlich könnte ein Computer ja auch sehr langsam arbeiten. Das Bewusstsein, das vom Menschen emuliert würde, würde dann sicherlich langsam "arbeiten", aber es sollte im Prinzip ja dennoch existieren. " Die Emulation ist auf diese Weise nicht im Ansatz möglich. Schon bei den aktuellen Llms ist ein einziger Input eine Matrix mit Zigtausenden Spalten. Wie schnell kannst Du Matrizen multiplizieren? Und woher kennst Du überhaupt den richtigen Algorithmus? Und nein, es entsteht auch nicht auf magische Weise ein "langsam denkendes" Bewusstsein, wenn jemand beginnt, eine Matrix zu notieren. Anders gesagt: Die funktionalen Aspekte des Bewusstseins sind bei Deinem Beispiel nicht im Ansatz erkennbar, darum ist dort auch kein Bewusstsein. " Da stünden (wenigstens) zwei Antwortmöglichkeiten bereit. Ich möchte sie an dieser Stelle nicht bewerten, sondern nur darstellen: - Funktionale Zustände per se genügen nicht, um Bewusstsein zu erzeugen; die kausalen Kräfte des Gehirns, die das psychische Erleben erzeugen, hängen vielmehr wesentlich auch von den konkreten physikalischen Eigenschaften des Gehirns ab (das wäre z.B. die Meinung von Searle)." Ist dies nicht offensichtlich inkonsistent? Jeder Kausalzusammenhang ist per Definition eine funktionale Beschreibung. Alle Argumente von Searle gegen den Funktionalismus treffen ihn daher immer auch selbst. Insgesamt überzeugen mich die Argumente gegen die These, dass Bewusstsein durch Computation entsteht also immer noch nicht. "Ich würde eher sagen, dass die eigentliche Frage lauten sollte: Wenn Erleben (Qualia) etwas anderes ist als ein funktionaler Zustand, in welchem Zusammenhang steht es dann mit funktionalen Zuständen?" Ich beginne noch einmal von vorne: 1. Ich existiere, mein bewusstes Erleben existiert, dies kann ich nicht sinnvoll anzweifeln. 2. Ich lehne den Solipsismus ab, weil er hinderlich ist bei der Orientierung in der Welt. 3. Durch die Ergebnisse der Naturwissenschaften stelle ich die Hypothese auf, dass die Welt vollständig durch physikalische Tatsachen bestimmt ist. Dies ist falsifizierbar: Würde zum Beispiel Zauberei wie in "Harry Potter" existieren, dann wäre die Hypothese widerlegt. 4. Aus 3. und 1. schließe ich, dass Ich und mein bewusstes Erleben in Form eines physikalischen Gehirns existieren. 5. Aus 3. und 4. folgt, dass "P-Zombies" nicht existieren können: Was den perfekten Anschein der funktionalen (also naturwissenschaftlich erfassbaren, aus der Perspektive der dritten Person zugänglichen) Aspekte von bewusstem Erleben hat, das ist tatsächlich bewusstes Erleben. Es folgt auch, dass es keine "vertauschten Qualia" geben kann: Was in physikalischer Hinsicht identisch ist, ist auch bezüglich bewusstem Erleben identisch. Wie hängen nun Funktion und Erleben zusammen? Die einzige Möglichkeit die ich sehe, ist die, dass bestimmte physikalische Prozesse (funktional beschreibbar, also konkret: Prozesse in Gehirnen) Erleben repräsentieren. Die funktionale Beschreibung ist die Beschreibung aus Sicht der Dritten Person, das Erleben ist, nun, das tatsächliche Erleben aus Sicht der ersten Person. Ein "hartes Problem des Bewusstseins" existiert somit nicht, das Qualiaproblem ist ein Scheinproblem. Und ja, auch (andere) höhere Tiere haben meiner Ansicht nach eine Art Bewusstsein, wenn auch nicht so hoch entwickelt wie beim Menschen: Ein Hund, der Schmerzen äußert, hat auch Schmerzen. Auch wenn "Ich denke, also bin ich" für ihn keinen Sinn ergibt. bearbeitet 13. September von KevinF Zitieren Link zu diesem Kommentar Auf anderen Seiten teilen More sharing options...
KevinF Geschrieben 13. September Autor Melden Share Geschrieben 13. September Danke @Kulti , ich gehe vielleicht noch darauf ein. Wollte ohnehin den Bogen zurück zum Thema schlagen. Zitieren Link zu diesem Kommentar Auf anderen Seiten teilen More sharing options...
SteRo Geschrieben 13. September Melden Share Geschrieben 13. September (bearbeitet) vor 56 Minuten schrieb KevinF: Ich beginne noch einmal von vorne: 1. Ich existiere, mein bewusstes Erleben existiert, dies kann ich nicht sinnvoll anzweifeln. Ich würde bezweifeln, dass du existierst. Dass du allerdings deine Existenz nicht anzweifeln könntest, nachdem du dir bereits bestätigt hast, dass du existierst, ok. vor 56 Minuten schrieb KevinF: 2. Ich lehne den Soliphismus ab, weil er hinderlich ist bei der Orientierung in der Welt. Eine Sicht abzulehnen, weil sie die eigenen Erwartungen nicht erfüllt ist keine valide Widerlegung dieser Sicht. vor 56 Minuten schrieb KevinF: 3. Durch die Ergebnisse der Naturwissenschaften stelle ich die Hypothese auf, dass die Welt vollständig durch physikalische Tatsachen bestimmt ist. Wer sollte die Ergebnisse der Naturwissenschaften anzweifeln? Wer sollte die Grundannahmen der Naturwissenschaften für ihre Ergebnisse anzweifeln? Aber wer sollte daraus folgern, dass die Grundannahmen der Naturwissenschaften hinsichtlich des naturwissenschaftlichen Erkenntnisgewinn alle Grundannahmen hinsichtlich allen nicht-naturwissenschaftlichen Erkenntnisgewinns schlechthin erschöpfen? vor 56 Minuten schrieb KevinF: 4. Aus 3. und 1. schließe ich, dass Ich und mein bewusstes Erleben in Form eines physikalischen Gehirns existieren. Na ja, ich habe starke Zweifel, dass du existierst. Wenn du nun aber sagst, dass du dein Gehirn bist, dann könnte ich vielleicht dein Gehirn verifizieren, aber nicht dich. Deine weiteren Gedanken zu kommentieren, will ich mir ersparen. Aber vielleicht willst du mal erforschen, was es eigentlich ist, das in dir irgendwas denkt? bearbeitet 13. September von SteRo Zitieren Link zu diesem Kommentar Auf anderen Seiten teilen More sharing options...
KevinF Geschrieben 13. September Autor Melden Share Geschrieben 13. September 3 minutes ago, SteRo said: 58 minutes ago, KevinF said: 2. Ich lehne den Soliphismus ab, weil er hinderlich ist bei der Orientierung in der Welt. Eine Sicht abzulehnen, weil sie die eigenen Erwartungen nicht erfüllt ist keine valide Widerlegung dieser Sicht. In diesem Fall schon, denn weder die Hypothese noch ihre Verneinung ist falsifizierbar. Zitieren Link zu diesem Kommentar Auf anderen Seiten teilen More sharing options...
SteRo Geschrieben 13. September Melden Share Geschrieben 13. September vor 1 Minute schrieb KevinF: In diesem Fall schon, denn weder die Hypothese noch ihre Verneinung ist falsifizierbar. Welche Hypothese? und was soll Fasifizierung in deiner Anwendung von "Fasifizierung" sein? Du solltest deine Gedanken erst mal ordnen und den Inhalt deiner Gedanken nicht als unabhängig von deinem Denken existierend annehmen. Zitieren Link zu diesem Kommentar Auf anderen Seiten teilen More sharing options...
Recommended Posts
Join the conversation
You can post now and register later. If you have an account, sign in now to post with your account.