New Immissions/Updates:
boundless - educate - edutalab - empatico - es-ebooks - es16 - fr16 - fsfiles - hesperian - solidaria - wikipediaforschools
- wikipediaforschoolses - wikipediaforschoolsfr - wikipediaforschoolspt - worldmap -

See also: Liber Liber - Libro Parlato - Liber Musica  - Manuzio -  Liber Liber ISO Files - Alphabetical Order - Multivolume ZIP Complete Archive - PDF Files - OGG Music Files -

PROJECT GUTENBERG HTML: Volume I - Volume II - Volume III - Volume IV - Volume V - Volume VI - Volume VII - Volume VIII - Volume IX

Ascolta ""Volevo solo fare un audiolibro"" su Spreaker.
CLASSICISTRANIERI HOME PAGE - YOUTUBE CHANNEL
Privacy Policy Cookie Policy Terms and Conditions
Diskussion:Information - Wikipedia

Diskussion:Information

aus Wikipedia, der freien Enzyklopädie

/Archiv1

Diskussion:Information/Fragen


Ich sehe keinen Sinn darin, einen eigenen Begriff Information (Semiotik) einzuführen, während hier unter Information ein Großteil der Erklärung auf der Semiotik aufgebaut wird. Im Übrigen ist die Darstellung hier, in der die Semiotik nur drei Ebenen hat, falsch, da sie insbesondere die Sigmatik außer acht lässt.

Früher hat man eher drei, heute eher vier Ebenen betrachtet. Dadurch haben sich auch die Definitionen der einzelnen Begriffe geändert. Am deutlichsten wird das bei der Betrachtung des Artikels Semiotik klar. Stern 11:54, 21. Jan 2004 (CET)

Inhaltsverzeichnis

[Bearbeiten] Diskussion im Jahr 2003

[Bearbeiten] Strukturierungsvorschlag

Bitte mal einen Blick auf http://de.wikipedia.org/wiki/Wikipedia:Kandidaten_f%FCr_exzellente_Artikel#Information_--_20._November werfen.

(Das folgende habe ich mal zu Anfang dieser Seite geschrieben und jetzt an diese Stelle kopiert) Ich möchte vorschlagen, eine zusätzliche Orientierung einzubauen, die ich bei Gaus (Gaus, W. [1995], Dokumentations- und Ordnungslehre, Berlin Heidelberg 1995) fand: Information als

  1. Struktur = structure approach
  2. Erkenntnis = knowlegde approach
  3. Signal = signal approach
  4. Nachricht = message approach
  5. verstandene Nachricht = meaning approach
  6. Wissensvermehrung = effect approach
  7. Vorgang = process approach

Mit freundlichem Gruss P. Meurer, 28.11.03

djspacejam@yahoo.de

Nur zu! Einfach im Artikel auf "Bearbeiten" klicken und einbauen! Uli 17:58, 28. Nov 2003 (CET)

[Bearbeiten] Informationsbegriff in der Semiotik

(alles Quatsch)

Wieso die Trennung Information (Semiotik) und Information? Und dann auch noch die veraltete Sicht der Semiotik in der die Sigmatik-Ebene fehlt? Der ganze Text baut auf der veralteten Sicht auf und kann eigentlich in die Tonne! Guillermo 12:45, 10. Dez 2003 (CET)

Man müsste hier viel mehr "trennen", denn es gibt durchaus verschiedene Sichten auf Information, so auch die der Informationswissenschaft, die zwar auch die eher naturwissenschaftliche Sicht kennt, aber doch mehr aus der Sicht des Menschen als des Nutzers von Information argumentiert, siehe Information (Informationswissenschaft) (als Eintrag erst ein Anfang). lucky 13:00, 10. Dez 2003 (CET)
"Alles Quatsch" war zwar plakativ gemeint. Ich bin aber durchaus dafür, hier nochmal von Grund auf an den Artikel neu zu verfassen. Guillermo 13:01, 10. Dez 2003 (CET)


[Bearbeiten] Vorschlag pro Gebiet einen individuellen Artikel zu schreiben

Bei so schwierigen Fällen kann man vielleicht doch mal einen temporär parallen Artikel schreiben, wenn die beiden dann zusammengeführt werden. Vielleicht würde ein Splitten in Information in der Physik, Information in der Philosophie, Information in der Informationswissenschaft... der Sache ganz gut tun, sofern ein kurzer, verständlicher, neutraler übergeordneter Artikel Information existiert. -- Nichtich 18:35, 11. Dez 2003 (CET)


[Bearbeiten] Stellungnahme des Autors des Artikels Information (Informationswissenschaft)


Ich bin nicht einverstanden damit, dass mein Artikel Information (Informationswissenschaft) gelöscht und sein Inhalt zu einem kleinen Teil in den Artikel Information eingeschoben wurde. Ich hatte gedacht, die Diskussion hätte klar gemacht, dass der Artikel schon zu groß ist. Die Hypertextidee sagt eigentlich etwas ganz Anderes. Wenn die Möglichkeiten von Wikipedia dazu führen, dass eine einzelne Person aus ihrer eingeschränkten Sicht willkürlich Tatsachen schafft, sehe ich darin keine Zukunft. lucky 09:10, 17. Dez 2003 (CET)


Ich halte die Idee für einen parallelen Eintrag für gut, denn der jetzige ist sicher schon sehr gut. Man muss ihn aber schon mit etwas Aufwand lesen. Das Thema Information sollte meines Erachtens aber bei dem berühmten Bit anfangen. Wesentlich umzugestalten ist daher zuerst der Eintrag "Bit"


[Bearbeiten] Das Bit als kleinste Informationseinheit

Ich könnte mir folgendes Denken: Information ist ...., die kleinste Informationseinheit ist das BIT -> Nun zuerst nachlesen, was ein Bit ist. Jetzt kann man auf dieser Basis die unterschiedlichen Aspekte von Information entwickeln. Ich bin gerne bereit, hier mitzuarbeiten Benutzer:Rainer Nase 07:46, 19. Jan 2003 (wie macht man den Zeitstempel automatisch?)

[Bearbeiten] Diskussion im Jahr 2004

[Bearbeiten] Information in der Wirtschaftinformatik

Was haltet Ihr von der Mitarbeit am Wikipedia:WikiProjekt Wirtschaftsinformatik. Ein wesentlicher Teil der Wirtschaftsinformatik ist der Informationsbegriff. Daher heißt das Fach auf Englisch auch information systems. Da könnte man dann den Themenkomplex geordnet einmal neu aufrollen Und Begriffe wie Semiotik, Daten, Wissen, Informationsmanagement etc. gleich mit behandeln. Automatischer Zeitstempel durch vier Tilden hitnereinander (~) Stern 11:48, 21. Jan 2004 (CET)


[Bearbeiten] Der Ursprung biologischer Information

Ganz interessante Ausführungen zur Information sind zu lesen in Bernd-Olaf Küppers "Der Ursprung biologischer Information". Im Prinzip steht dort: die Menge an Information in einem Informationsträger ist kleiner als die Menge an Information in einem Programm (einer Turingmaschine), das die erste Information erzeugen kann. Anders ausgedrückt: Man hat eine Bitfolge und einen Algorithmus, der diese Bitfolge erzeugt. Wenn die Länge der Bitfolge des Algorithmus kleiner ist als die erzeugte Bitfolge, kann seine Informationsmenge nicht größer sein als es seiner Bitzahl entspricht. Nun geht man iterativ vor, das heißt, man sieht das Programm als Information an und versucht, weiter zu reduzieren durch finden eines neuen, noch kürzeren Programms. Wenn das gelingt, hat man eine obere Schranke für die Informationsmenge gefunden.

Auf die Natur angewendet bedeutet das eventuell, dass sich im Laufe der Geschichte die Natur aus dem Chaos schöpft, das heißt, sie baut bestimmte Strukturen auf und wir als Teil der Natur versuchen, die Algorithmen zu finden, die bei ihrer Anwendung den gleichen Zustand generieren. Nun vergeht aber Zeit, das bedeutet, dass wir nicht ein statisches System betrachten, sondern ähnlich dem Reversispiel (Go auch? hab ich nie gespielt) kann mit jedem neuen Zug alles einfach umklappen. Es bleibt also interessant! RaiNa 17:44, 1. Feb 2004 (CET)

Das sind Punkte, die im Artikel noch fehlen, meines Erachtens aber nicht unbedingt inhärent zum Begriff "Information" gehören: Bei diesen Betrachtungen geht es vorwiegend um Komplexität, die über algorithmische Tiefe definiert wird. Das ist eng verbunden mit der Information, soviel ist klar, nur halt nicht unbedingt Bestandteil des Charakters von Information. Uli 17:53, 1. Feb 2004 (CET)

Ich habe dieses Buch zitiert, weil ich es für bemerkenswert halte. Mir ist die aktuelle Definition viel zu kompliziert. Ich kann das aber im Moment nicht diskutieren, denn das verlangt schon viel Zeit. Zur Zeit ist mein Hauptthema mein Verständnisproblem Wirkungsquantum. Aber ich will kurz ausführen:


[Bearbeiten] Diskussion um die Definition des Begriffs

Information ist das, was einen Informationsträger zu einem Zeitpunkt t von sich selbst zu einen anderen Zeitpunkt t1 unterscheidbar macht. Das heißt, zuerst muss man einen Informationsträger einführen als System, das mehrere Zustände annehmen kann. Der einfachste Informationsträger hat zwei mögliche Zustände und hat die Kapazität 1 Bit. Der nächst kompliziertere hätte drei mögliche Zustände und 1,5 Bit??. Der nächste vier Zustände und 2 Bit. Letzterer kann durch zwei einfachste substituiert werden. Das ist dann der erste Schritt.

Nun kann man fragen, wie stellt man eigentlich fest, wieviele Zustände ein Informationsträger annehmen kann? Dazu muss man ihn beschreiben und prüfen, auf wieviele Arten das möglich ist. Hier ein einfaches Beispiel, das aber gleich schon die Problematik zeigt: Man hat einen Magnetkern (wie in den alten Kernspeichern). Wenn man nun ein Bit einschreibt und es wieder liest, wird es durch das Lesen invertiert und muss wieder zurückgeschrieben werden.

Hat man nun einen Informationsträger für n Bit, so kann man in ihm 2^n verschiedene Bitsequenzen speichern, das heißt, man kann ein Symbol aus einem Ensemble von 2^n Symbolen für die Symbolisierung von 2^n beliebig komplexen, unterschiedlichen Objekten in diesem Informationsträger als Information speichern. (klingt noch kompliziert).

Liegt nun eine Bitfolge vor, so stellt sich die Frage, was sie symbolisiert. Die Antwort darauf liegt meiner Auffassung nach aber schon außerhalb des Themas.

Ich denke, dass obiger Absatz aber richtig definiert, was Information ist. Wenn man so Konsens erzielt, kann man weiter fragen, wie man zum Beispiel bei welchem Rauschen möglichst viele Bits pro Sekunde durch einen Draht quetscht. RaiNa 21:11, 1. Feb 2004 (CET)

Das definiert Information nur auf der "untersten", der syntaktischen Ebene, wie sie die Nachrichtentechnik und die Informationstheorie benutzt. Information geht aber darüber hinaus, die bloße Möglichkeit des Vorhandenseins von unterschiedlichen Zuständen ist noch keine Information: Information ist (vermutlich) nur dann vorhanden, wenn sie auch bedeutungstragend für das empfangende System ist, das sind die Ebenen darüber: die der Semantik, die die Symbole interpretiert (und erstmal definiert, was das Bit überhaupt ist), und die der Pragmatik, die die Wirkung beschreibt (Information als etwas neues). Information definiert sich über zwei Punkte: Die Wiedererkennbarkeit und die Neuigkeit. Beide definieren letztlich erst, welche Zustände man am Informationsträger unterscheidet, der Informationsträger ist nicht per se in unterscheidbare "Stückchen" aufgeteilt. Beispiel: Der Ball ist entweder rot oder blau: Das ist ein Bit. Nun interessiert mich aber gar nicht die Farbe, sondern die Frage, ob er groß oder klein ist (oder ob ich ihn an den Kopf bekomme oder er an mir vorbeifliegt): Erst indem ich ein Bezugssystem an den Träger anlege (einen semantischen Kontext definiere, innerhalb dessen mir der Informationsträger etwas neues mitteilen kann), definiere ich, was letztlich ein Bit ist. Uli 21:44, 1. Feb 2004 (CET)

Ich denke, hier ist ein Problem: Wir bauen ein komplexes System auf, bevor wir das Fundament setzen. "Das Bit ist die kleinste Informationseinheit". Dieser Aussage stimmen viele zu, das kann man oft lesen. Mir sagt es nichts. Deshalb habe ich versucht, zuerst den Informationsträger zu definieren und dessen Fähigkeit, eine bestimmte Bitmenge zu tragen. In deinem Beispiel: ein Bit hat die Fähigkeit, wahlweise einen roten oder einen blauen Ball zu repräsentieren, oder einen Großen oder Kleinen. Um aber das Bit an den Ball zu koppeln, verlangt es einen Mechanismus, der viel komplizierter ist als der Speicher oder der Ball. Die Fähigkeit, ein Bit als kleinste Informationseinheit zu speichern, ist nicht abhängig von der Verwendung des Bits. RaiNa 22:23, 1. Feb 2004 (CET)


zum 'wesen der information': 82.82.55.81 - wie auch immer du heisst - wenn du der meinung bist, dass 'der neuigkeitsgehalt' falsch ist, dann begruende das bitte. -- kakau 14:23, 2. Mär 2004 (CET)


[Bearbeiten] Abgrenzung von Information gegenüber Wissen

Es scheint mir hier ziemlich stark und unreflektiert Information mit "Wissen" oder Bedeutungsinhalten gleichgesetzt zu werden. Dabei ist Information in Wirklichkeit nur der Übertragungsvorgang, nicht aber der Inhalt an sich. Dies verdeutlicht besonders folgendes:
Die Darstellung im Artikel

  • Information ist ein Gewinn an Wissen
  • Information ist die Verringerung von Ungewissheit
  • Information ist eine Mitteilung, die den Zustand des Empfängers ändert.

bedeutet, näme man sie ernst, daß per dieser Definition

  • inhaltlich falsche Mitteilungen
  • Mitteilungen, die Ungewißheit erzeugen
  • Mitteilungen, die mich unberührt lassen - keine Informationen sein können.

Per allgemein akzeptierter Definition sind aber alle Mitteilungen als solche doch "Information". Obige Zuordnung muß also falsch sein.

Der Satz "Die Semiotik versteht unter Informationen zweckorientierte Daten, die das Wissen erweitern." würde bedeuten: wenn mir aus dem Semiotik-Seminar Daten übermittelt werden, ist das als Informationsinformation zu betrachten. Lustig, nicht? Gruß --WHell 12:03, 21. Apr 2004 (CEST)


[Bearbeiten] Neuer Artikel Information und Kommunikation


Aus meiner Begriffsklärung ist leider auch ein etwas längerer Artikel geworden, den ich unter Kommunikation und Information abgelegt habe --Hansjörg 11:46, 26. Jun 2004 (CEST)



[Bearbeiten] Überarbeitungs- bzw. Löschantrag des Absatzes Zyklische Verschränkung

Ich beantrage dass das Kapitel 2.5 - Zyklische Verschränkung - von jemandem überarbeitet wird, der versteht, was der Autor damit gemeint hat. Ich verstehe es nicht. Von mir aus kann er auch vorläufig gelöscht werden. HannesH 14:12, 11. Sep 2004 (CEST)

Ich bin dafür, den Absatz und ganz besonders die Tabelle "Telefongespräch" ersatzlos zu löschen. Es scheint sich hier eher um eine Art "Privattheorie" des Autors zu handeln, die er zudem auch noch weitgehend unverständlich kommuniziert. Die Begriffe Syntax, Semantik und Pragmatik werden in der Tabelle mit Erscheinungen in Zusammenhang gebracht, die nun aber auch wirklich überhaupt nichts mit diesen Begriffen zu tun haben. mfg --michaelsy 07:41, 6. Okt 2004 (CEST)
Die Tabelle finde ich auch nicht schön, das Beispiel ist in zu vielen Punkten zu unsauber. Die zyklische Verschränkung selbst würde ich aber drinlassen. Wie ausgeführt, ist eine rein syntaktische Betrachtung (bspw. die Informationstheorie im Sinne Shannons) nicht möglich, ohne bereits eine Semantik (bekannter Zeichenvorrat) vorauszusetzen. - Uli 09:29, 6. Okt 2004 (CEST)
Mit Wikepedia wird das Ziel verfolgt, bekanntes Wissen darzustellen. Ich denke nicht, dass der Absatz "Zyklische Verschränkung" diesem Anspruch gerecht wird. Ich lasse mich aber gerne eines Besseren belehren. Kannst Du mir/uns z.B. eine Literaturstelle nennen, in der etwas zum Thema "zyklische Verschränkung" ausgeführt wird oder in der der von Dir verwendete Begriff "Semantopragmatik" definiert (oder auch nur verwendet) wird? Google weist keine Stelle aus, außer unserem Wikepadia-Artikel - ich finde, das spricht für sich.
Was meinst Du eigentlich mit "eine rein syntaktische Betrachtung ... ist nicht möglich"? Was verstehst Du unter dem Begriff Semantik? Das Annehmen eines "bekannten Zeichenvorrats" innerhalb einer mathematischen Theorie ist kein semantischer Aspekt. Die Semantik beschäftigt sich mit Aspekten der Bedeutung von z.B. Zeichen (Semiotik), Informationen (Informationswissenschaft) bzw. Sprache (Linguistik). Solange also z.B. den Zeichen innerhalb eines „bekannten Zeichenvorrats“ keine Bedeutung zugeordnet wird, ist kein semantischer Aspekt vorhanden. Gruss --michaelsy 09:50, 8. Okt 2004 (CEST)
Ich kann Dir den in den Literaturangaben genannten "Holger Lyre: Informationstheorie" ans Herz legen. Ich zitier mal kurz das, was ich als zyklische Verschränkung verstehe, S. 193f: "... ist die Annahme semantischer Ebenen nur eine Näherung, denn die in die Darstellung semantischer Ebenen ihrerseits investierte Information muss ja unter einer bereits vorausgesetzten anderen Semantik stehen.". Der Begriff "Semantopragmatik" wird ebenfalls von Lyre eingeführt (drum habe ich auch "manchmal zusammengezogen" geschrieben, nicht "oft"), der auf Carl Friedrich von Weizsäcker (Information ist nur, was verstanden wird; Information ist nur, was Information erzeugt) aufsetzt. Google ist nicht der Quell aller Informationen ;-) - Uli 10:17, 8. Okt 2004 (CEST)
Ich würde nicht mit dem unüblichen Begriff Semantopragmatik arbeiten, sondern die Ebenen Semantik und Pragmatik weiterhin getrennt behandeln, wie es im Artikel der Fall ist. Ich finde weiterhin wir sollten den Absatz vorerst ersatzlos streichen, da er wirr wirkt. Uli kann ihn durchaus später wieder hereinsetzen, wenn er die Bezüge (Verschränkungen?) der Ebenen besser herausarbeiten kann. Oder: Vielleicht kann mal jemand beschreiben, wie die vier Ebenen miteinander in Beziehung stehen; es muss ja nicht gleich mehrfach und zyklisch verschränkt sein.  ;-) HannesH 14:59, 8. Okt 2004 (CEST)
Wie man es dreht oder wendet: Der Absatz gehört hier nicht her. Es wird nicht verständlich, was eigentlich gemeint ist – und allgemeinverständlich ist der Absatz schon gar nicht.
Der Absatz behandelt eine sehr spezifische Fragestellung, die eigentlich erkenntnistheoretisch diskutiert werden müsste und diese steht mit dem Thema des Artikels "Information" in nur sehr indirekter Beziehung.
Die angeführte Tabelle ist absolut nicht geeignet, die übliche Verwendung der Begriffe Syntax, Semantik und Pragmatik zu erläutern. Sie ist in dieser Hinsicht schlichtweg falsch.
Der Begriff „Semantopragmatik“ stammt nach Angaben des Autors (Uli) aus einem philosophisch orientierten Buch aus dem Jahr 2002 ist somit noch brandneu und hat offensichtlich noch nicht einmal den Eingang in eine öffentliche Diskussion gefunden; ganz zu schweigen davon, dass man hier von bekanntem Wissen sprechen könnte.
Der Ausdruck „zyklische Verschränkung“ ist wohl ein Begriff, der nur innerhalb der Privattheorie von Uli eine Verwendung findet und somit auch nicht dem bekannten Wissen angehört.
--michaelsy 16:49, 8. Okt 2004 (CEST)

[Bearbeiten] Kommunikation

Ich möchte vorschlagen, diesen Artikel inhaltlich und Strukturell mit dem Artikel Kommunikation und seinen fachspezifischen Unterartikeln zu koordinieren - insbesondere desshalb, weil die Problematik ähnlich ist: Es gibt nur eine sehr dürftige Definition, auf die sich alle Disziplinen einigen können. Vieles muss dann Fachspezifisch abgehandelt werden. Also, schaut mal ein...

P.S.: Die Artikel Kommunikation und Information sowie Information und Kommunikation sollte man evtl mit einbinden. -- D. Düsentrieb (?!) 14:53, 11. Sep 2004 (CEST)


[Bearbeiten] Hinweis @Ulrich Fuchs: Information hängt mit Kommunikation zusammen

Der Zusammenhang mit Kommunikation soll m.E. ausgebaut werden. Das Löschen eines Satzes, der darauf hinwies ist nicht zielführend.

Startpunkt ist folgende Überlegung: In der klassischen Informationstheorie von Shannon geht von einer Kommunikationsituation (Sender-Emppfänger-Modell) aus und entwickelt vor diesem Hintergrund den Informationsbegriff.

In einer beliebigen Struktur steckt nicht per se Information im allgemeinen Sinn des Wortes. Information setzt den Entscheid (s. Willen) voraus etwas den Wert von Information zu geben.

Der von Ulrich Fuchs angesprochene Fall, dass irgendwelche Strukturen Information enthalten meint wohl folgendes:

Durch Naturbeobachtung, Messung und Festhalten (Aufzeichnungsgerät, Papier) wird Information erzeugt. Dabei ist der Mensch direkt oder indirekt der Auslöser. Dass das Erdinnere eine Struktur hat ist nicht schon Information. Erst wenn ich es mit Hilfsmitteln erforsche und beschreibe und in einen Zusammenhang stelle, sei es für mich selbst, sei es für andere wird es zur Information. Auch zum Beispiel die Temperaturverläufe, Windverhältnisse und Wolkenverteilungen werden erst zur Information, wenn sie entweder direkt beobachtet oder durch Messgeräte und Computer erfasst und verdichtet und ausgewertet werden. Dann verfügen wir über Wetterinformation.

Zudem: Die Beispiele wo behauptet wird, es gäbe Information ohne Sender sind meistens sehr gesucht.

Ein Hinweis: Ich kann durchaus Sender und Empfänger einer Information sein: Bsp. Führen einer Agenda oder eines Laborjournals.

HannesH 12:16, 16. Okt 2004 (CEST)

Ja, genau um den Fall mit dem Erdinneren gehts mir. Ich halte daher die Aussage, dass Information immer mit Kommunikation verknüpft ist, für falsch. Kommunikation ist ein zweiseitiger Prozess. Der Großteil der Informationen, die wir verarbeiten, hat aber nur in den wenigsten Fällen einen Sender, wenn man mal die Natur oder das Universum "an sich" als Sender ausschließt. Wenn ein Ingenieur die Bruchstelle eines Werkstücks betrachtet, ein Historiker aus alten Rechnungen Informationen herausfiltert, die die längst verblichenen Rechnungssteller nie mit der Rechnung mitschicken wollten (beispielsweise wie man anno dunnemal ein Dach gedeckt hat, und eben nicht, was es gekostet hat) etc., dann handelt es sich um Informationen, die einem Informationsträger entnommen werden (soviel ist klar), aber die wurden nicht gesendet. Insofern ist es sicher richtig zu sagen, dass Kommunikation immer den Austausch von Information bedingt (sonst verändert sich der Zustand des Empfängers nicht, es hat dann keine Kommunikation stattgefunden), aber zu sagen, Information ist so gut wie immer an Kommunikation geknüpft, ist wohl falsch: Es gibt offensichtlich jede Menge Fälle der Informationsverarbeitung, die definitiv keine Kommunikation sind, weil die Information nicht gesendet wurde. Dennoch ist sie da, sobald man eine bestimmte Semantik an den Informationsträger anlegt. Die Kernfrage der Information ist im Grunde: Ist sie vorher schon da, oder entsteht sie erst im Moment der Beobachtung. Wenn ersteres: Was ist sie dann, wie vielgestaltig muss sie sein, um so dicht zu sein, dass sie im Grunde beliebige Semantiken unterstützt? Wenn letzteres, warum entsteht sie und woraus? - Uli 13:47, 16. Okt 2004 (CEST)
Mal ein paar Punkte:
  • Kommunikation setzt nicht unbedingt voraus, dass es einen Sender gibt. Es gibt auch Kommunikationsbegriffe, die das nicht voraussetzen, zum Beispiel in der Systemtheorie. Dazu am besten mal die Artikel lesen, die von Kommunikation verlinkt sind.
  • Ob Information verhanden ist, wenn sie nicht kommuniziert/empfangen/verarbeitet wurde, darüber kann man streiten (Baum fällt im Wald... sollte man evtl. als Beispiel erwähen?)
  • Ich bin jedoch der überzeugung, dass Information stets kommunizierbar sein muss. Insbesondere setzt die "Verarbeitung" von Information die kommunizierbarkeit voraus.
  • Des weiteren ist Information, die nicht empfangbar ist, weil sie z.B. so weit enfernt ist, dass kein Signal von dort uns erreichen kann, zumindest irrellevant. Manche würde sogar argumentieren, dass sie für uns nicht vorhanden sei, da sie auf uns keinen Effekt hat. In der Physik ist das z.B. wichtig - die Frage, ob ein Schwarzes Loch Information vernichtet, geht auf dieses Problem zurück. Auch ein wichtiges Thema...
Ich bin daher der Ansicht, dass man den gelöschten Satz, oder einen ähnlichen, präzieseren, wieder aufnehmen sollte, damit die enge verknüpfung deutlich wird. -- D. Düsentrieb 14:22, 16. Okt 2004 (CEST)

Ich bin ebenfalls dafür, die Verbindung zwischen Information und Kommunikation wieder herzustellen. Ich denke da vor allem an die Erklärung, die ich in Herkunftswörterbücher für informieren gefunden habe: "benachrichtigen, Auskunft geben, belehren". Damit dürfte die Verbindung zu kommunizieren zwingend sein. --cavendish 10:59, 18. Okt 2004 (CEST)

[Bearbeiten] Buch Roger Penrose, Computerdenken gelöscht

Ich habe mir erlaubt, den Verweis auf das Buch "Roger Penrose, Computerdenken" herauszunehmen. Wie es dazu kommen konnte, dass dieses Werk angeblich eine "Einführung in den Informationsbegriff" enthalten soll, ist mir schleierhaft. Es beinhaltet zwar einen bunten Reigen einiger Dutzend populärwissenschaftlicher Themen aus Informatik, Mathematik und Physik, bis hin zur Biologie und Philosophie, enthält aber nichts zum Thema Informationsbegriff. Weder das Wort "Information" noch ein davon abgeleiteter Begriff (z.B. Informationstheorie) sind überhaupt im Stichwortverzeichnis vorhanden. --michaelsy 06:58, 6. Okt 2004 (CEST)

Ich hatte die Literaturangabe vorwiegend wegen der recht guten Beschreibung von Turing-Maschinen reingesetzt, kann mich aber mit der Herausnahme durchaus anfreunden - über Information selbst ist dem Buch wirklich kaum was zu entnehmen. - Uli 09:34, 6. Okt 2004 (CEST)


[Bearbeiten] Bemerkung zum Absatz: Binarisierung und die Wahrscheinlichkeit von Zeichen

Das folgende soll als Begründung für meine Anpassung im Absatz Binarisierung und die Wahrscheinlichkeit von Zeichen dienen.

In der klassischen Informationstheorie von geht es um die mathematische Betrachtung der Informationsübertragung. Eine wichtige Frage ist, wie ich sicher mit genügender Qualität Telefongespräche übertragen kann: Man geht davon aus, dass ein ein Signal vorliegt, das Information trägt. Ich digitalisiere das Signal, kodiere es, sende es über eine Leitung und dekodiere es am andern Ende. Für diese Arbeit gehe ich nur davon aus, dass ich ein Signal übertragen will (ob das Bach, Jazz, House oder das Gespräch mit der Oma ist, spielt keine Rolle). Signaleigenschaften (Häufigkeiten der Digitalisierungswerte) spielen die entscheidende Rolle. Syntax und Semantik, geschweige denn Pragmatik kommen hier nicht ins Spiel. D.h. die klassische Informationstheorie von Shannon beschreibt einen Teilsaspekt des Informationsbegriffes. Damit man ihm gerecht wird, sind die weiteren Ebenen auf jeden Fall einzubeziehen, was im Artikels an anderer Stelle durchaus auch geschieht.

HannesH 13:49, 6. Okt 2004 (CEST)--

Signaleigenschaften (Häufigkeiten der Digitalisierungswerte) spielen die entscheidende Rolle. Genau das ist aber die als bekannt vorausgesetzte Semantik. Die Shannonsche Theorie funktioniert nur, wenn der Zeichenvorrat bekannt ist. Beispiel: Wenn ein Faxgerät meine Nummer wählt und mir ins Ohr pfeift, ist die Information für mein Gehör nicht dekodierbar, weil die Semantik nicht bekannt ist. Erst wenn ich an diesen Fluss eine bestimmte Semantik anlege, entsteht(?!?) Information: Für ein Faxgerät ein lesbarer Datenstrom, für mich als Mensch mit etwas gutem Willen eine Melodie, eine Abfolge von Tönen. Beides sind komplett unterschiedliche Interpretationen des gleichen Informationsträgers. Information im Sinne Shannons ist nichts a priori existierendes, was sozusagen "ganz unten in der Heirarchie der Informationen" steht. Darauf sollte schon hingewiesen werden. - Uli
Die Shannonsche Theorie funktioniert nur, wenn der Zeichenvorrat bekannt ist. Einverstanden. Also z.B. die Übereinkunft, dass wir die Buchstaben A..Z und einige weitere Zeichen verwenden. Ob nun aus den Buchstaben Wörter einer existierenden Sprache und daraus sinnvolle Sätze gebildet werden (Syntax und Semantik), spielt für diese mathematischen Betrachtungen der Shannon'schen Theorie gar keine Rolle. Sie hat sich als sehr nützliches, aber keineswegs ein hinreichendes Instrument zur Charakterisierung von Information bewährt. Diesen Aspekt möchte ich gerne herausgearbeitet haben. Weiter: Eine zu allgemeine Verwendung des Begriffes Semantik (allgemein im Sinne von jeglicher Art von Übereinkunft) ist verwirrend, da dann nämlich alles Semantik ist; da bleibt man lieber bei einem deutschen Begriff. Vermutlich dürfte eine vorgängige Ausarbeitung des WP-Eintrages Semantik hilfreich sein.

Zitat aus der WP-DE: Die Informationstheorie ist eine mathematische Theorie aus dem Bereich der Wahrscheinlichkeitstheorie und Statistik, die auf Claude Shannon zurückgeht. Sie beschäftigt sich mit Begriffen wie Information, Entropie, Informationsübertragung, Datenkompression, Kodierung, Kryptographie und verwandten Themen. (Der Artikel kann einen Ausbau auch gut gebrauchen). HannesH 16:40, 6. Okt 2004 (CEST)--

[Bearbeiten] Diskussion aus dem Review

steht auf der Review-Hauptseite --slg 18:25, 28. Sep 2004 (CEST)

Hab nur kurz in der Physik gelesen: Die statistische Mechnik auf die Information zurückzuführen ist schlichtwegs falsch. Bolzmann hat als erster die Entropie verwendet, erst dann kam Informations-Shannon, der diesen Begriff verwendet, und explizit auf Bolzmann verweist. Das die Quantenmechanik Information auf nicht klassischen Weg übertragen kann ist ebenfalls falsch. Das man Information nicht kopiern kann stimmt vielleicht auch nicht (aber das kann man diskutieren): Man kann kein QM-System klonen. Ich kann die Information (photon a ist im Zustand b) aber auslesen aufschreiben und in den Kopierer legen ... 128.97.70.87 01:44, 1. Okt 2004 (CEST)
Ich möchte mich der Meinung von 128.97.70.87 insofern anschliessen, als dass ich den ganzen Absatz über Physik und Information unverständlich finde. Ich werde den Eindruck nicht los als dass jemand auf Biegen und Brechen eine Verbindung zwischen Physik und Information konstruieren will. Das kann er meinetwegen, aber dann sollte er etwas so sagen können, dass man es versteht. So wie das jetzt vorliegt trifft das m.E. nicht zu. Ich beantrage das Löschen dieses Absatzes (komplett). HannesH 10:19, 19. Nov 2004 (CET)
Über die sachliche Richtigkeit des betreffenden Abschnitts kann man sicher steiten, es ist aber ganz sicher so, dass Information in der Physik wichtig ist. Insbesondere in der Thermodynamik spielt Information eine Grosse rolle - hat Stephen Hawkings nicht gerade eine Wette in Bezug darauf verloren, ob Schwarze Löcher Information vernichten? Ein sehr gutes Beispiel für den Zusammenhang ist auch der Maxwellscher Dämon, ein Paradoxon dass erst durch die Informationstheorie gelösst werden konnte. Kurz gesagt: Wenn man einem System Energie zuführt, verringert man die Entropie und erhöht den Informationsgehalt des Systems. Es gibt eine minimale Energiemenge für die darstellung eines Bits, etc. Desweiteren orientiert sich z.B. in der Relativitätstheorie der Begriff der Gleichzeitigkeit daran, wann, wie und wo Informationen übertragen werden - Einstein schließt Reisen in die Vergangenheit aufgrund von Paradoxa aus, die sich ausschließlich auf Information beziehen, etc. Die Verbindung ist also nicht zu leugnen... -- D. Düsentrieb 13:58, 19. Nov 2004 (CET)


Bezüglich Maxwellscher Dämon: Dort lese ich erstmal

  1. Der maxwellsche Dämon oder Maxwell-Dämon ist ein Gedankenexperiment
  2. Leider würde dieser Aufbau in Wahrheit so nicht funktionieren, da er einen entscheidenden Denkfehler enthält.
  3. Der zweite Hauptsatz behält seine Gültigkeit.

Über die Lösung eines Widerspruchs durch die Informationstheorie lese ich nichts.

Düsentrieb weist darauf hin, das ein Zusammenhang zwischen Physik und Informationstheorie exisitiere. Damit das dokumentiert ist, sei auch falsche Information im Artikel in Kauf zu nehmen. Wirklich? Düsentrieb schreit: Wenn man einem System Energie zuführt, verringert man die Entropie und erhöht den Informationsgehalt des Systems. Wo ist der höhere Informationsgehalt, wenn ich einen Topf Wasser auf den Herd stelle und erhitze? Solche allgemeine Aussage enthalten unfreiwillige Komik. Könnte jemand bitte den Absatz überarbeiten? Sonst bin ich immer doch vorerst für Löschen. HannesH 17:25, 19. Nov 2004 (CET)

Aaaalso:
  • dass falsche Infos im Artikel in kauf zu nehmen seihen habe ich nirgens gesagt. Ich sage nur, es gibt einen Zusammenhang, und der sollte angesprochen werden. Fehler sollten natürlich raus.
  • Dass der maxwellsche Dämon ein Gedankenexperiment ist, ändert nichts. Alle psysikalischen Paradoxa sind Gedankenexperimente (per definition!), sie verhelfen dennoch zu wichtigen Einsichten über die Gültigkeit und den Konsequenzen einer Theorie.
  • Dass der Dämon nicht funktionieren würde und der zweite Hauptsatz der Thermodynamik seine Gültigkeit behält ist genau der Punkt. Das lässt sich nämlich u.A. auch durch informationstheoretische Betrachtung zeigen:
Leider weiß ich nicht mehr, wo ich das las (ist schon einige Jahre her), der Punkt ist im Prinzip der selbe, der im Artikel mit der "elektronischen Schaltung" angesprochen wird: die Entscheidung, ob ein Molekül "schnell" ist, benötigt Energie, völlig egal ob sie elektronisch oder sonstwie realisiert ist. Das lässt sich daran zeichen, dass eben zu Darstellung und Verarbeitung von Information immer Energie notwendig ist.
  • Was ist das Gegenteil von Entropie? Meist spricht man von "Struktur" oder einem "Ungleichgewicht", es wird also eine Unterscheidbarkeit von Komponenten betrachtet. Unterscheidbarkeit ist immer Information (häufig wird "Information" sogar so definiert). Um einem System struktur zu verleihen (also die Entropie zu senken) muss man dem System Energie zuführen - der Umkehrschluss (mehr Energie -> weniger Entropie) ist nicht ohne weiteres wahr, da war ich oben zu ungenau, das gebe ich zu.
Bitte sag doch mal, was konkret du an dem Absatz für falsch hällst. Bislang hast du nur gesagt dass du ihn unverständlich findest. Wenn du ihn nicht verstehst, woher weisst du dann, dass er falsch ist? -- D. Düsentrieb 18:39, 19. Nov 2004 (CET)


Ich zügle den fraglichen Abschnitt mal hierher (hellblau) und füge meinen Kommentar ein:


[Bearbeiten] Physik und Information

Der Begriff der Information gewinnt in der Physik mehr und mehr an Bedeutung. Die erste Theorie, die eine Verbindung zwischen der Physik und der Informationstheorie aufzeigte, war die statistische Mechanik. Die Quantenmechanik schließlich zeigt den Weg zu einer völlig neuen Art von Information. Siehe dazu auch Informationsübertragung (Physik).

[Bearbeiten] Information und statistische Mechanik

Mit der Thermodynamik wurde auch eine neue Größe in der Physik eingeführt: Die Entropie. Diese Größe zeigt ein ungewöhnliches Verhalten: Sie kann in einem geschlossenen System nicht ab-, sondern nur zunehmen. Diese Eigenschaft ist in Form des 2. Hauptsatzes eine der Grundlagen der Thermodynamik.

Die statistische Mechanik, die die Thermodynamik auf ungeordnete mikroskopische Bewegungen zurückführt, erklärt nun die Entropie über die Wahrscheinlichkeit von Bewegungszuständen. Die Formel, die dabei auftritt, ist bis auf einen konstanten Vorfaktor gerade die Formel für die Informationsentropie. In der Tat lässt sich die statistische Mechanik vollständig aus dem Prinzip der maximalen Entropie herleiten, das darauf beruht, bei nur teilweise bekannten Daten stets davon auszugehen, dass die (durch die Informationsentropie beschriebene) Unkenntnis über das System maximal ist.

Im Artikel über statistische Mechanik erscheint das Wort Information nicht. Wenn der Zusammenhang so prominent ist, dann würde ich zumindest dort etwas davon erwarten. Beziehungslos folgt ein Satz, dass Entropie in der Thermodynamik eine Rolle spielt. Eine Formel tritt nicht auf, sondern mit einer Formel beschreibt man eine reproduzierbare physikalische Beobachtung. Warum schreibt man die Formel nicht hin, damit es der Leser nachprüfen kann? Ist es nur ein äusserer Zusammenhang? Das ganze gibt vor etwas auszusagen und sagt doch nichts.


Ein anschauliches Beispiel, wie der 2. Hauptsatz der Thermodynamik mit der Information zusammenhängt, liefert der Maxwellsche Dämon. Der Maxwellsche Dämon umgeht den zweiten Hauptsatz, indem er an einem kleinen Loch zwischen zwei Gasbehältern sitzt, das durch eine reibungsfreie Klappe verschlossen werden kann. Das Loch ist so klein, dass nur ein Gasmolekül gleichzeitig hindurchfliegen kann. Der Dämon beobachtet nun die Gasmoleküle, die auf das Loch zufliegen. Kommt von links ein schnelles Molekül oder von rechts ein langsames Molekül, so macht er die Klappe auf, so dass es durchkann. Kommt hingegen von links ein langsames oder von rechts ein schnelles Molekül, so schließt er die Klappe. Dadurch sammeln sich links die langsamen und rechts die schnellen Moleküle, das heißt der rechte Behälter heizt sich auf und der linke kühlt sich ab, ohne dass Arbeit verrichtet werden müsste, im Widerspruch zum 2. Hauptsatz. Durch Information (ist das Molekül ein "erwünschtes" oder "unerwünschtes"?) wird also scheinbar ein physikalisches Gesetz "ausgehebelt".

Die Lösung des Problems liegt darin, dass der Erwerb (beziehungsweise das anschließende Vergessen) der Information seinerseits Entropie (also Wärme) produziert, die groß genug ist, um die Entropieverringerung der Behälter auszugleichen. Eine Folge davon ist, dass nach heutigen Konstruktionsprinzipien aufgebaute Computer bei gegebener Temperatur einen inhärenten Energieverbrauch pro Operation haben, der prinzipiell nicht unterschritten werden kann (heutige Computerchips sind jedoch noch weit von dieser prinzipiellen Grenze entfernt).

Eine physikalische Grösse eines phyischen Objektes ist nicht Information im Sinne diese Artikels. Es gibt eine Codes, keine Syntax, keine Sender, keine Empfänger.

Das Landauer-Prinzip, auf dem die obige "Auflösung" des Maxwellschen Dämons basiert, ist durchaus umstritten, da es auf der Gleichsetzung von thermodynamischer Entropie und informations-Entropie aufbaut. Ich würde es auch erst glauben, wenn mir jemand ein Experiment zeigt, bei dem sich an einem Computerspeicher tatsächlich thermische Effekte durch das Löschen von Informationen zeigen lassen. --Homosapiens 21:01, 20. Okt. 2006 (CEST)

[Bearbeiten] Quanteninformation

Die Quantenmechanik zeigt, dass Quantenobjekte eine Art Information enthalten, die nicht über klassische Kanäle (also beispielsweise als Folge von Nullen und Einsen) übertragen werden kann. Außerdem kann man Quanteninformation nicht kopieren (ohne die Originalinformation im Original zu zerstören).

Die besonderen Eigenschaften der Quanteninformation ermöglichen Anwendungen, die mit klassischer Information nicht möglich sind, wie Quantencomputer und Quantenkryptographie.

Was ist klassische Information? Um die Begriffsdifferenzierung klassisch gegen nicht-klassisch einzuführen bedarf es sicher mehr als diese zwei Sätze. Ein siehe auch unten am Arikel auf Quantencomputer dürfte vorerst völlig ausreichen.

Ich denke ein Grundproblem bei dieser Diskussion ist, dass für einige Leute eine physikalische Grösse bereits Information ist. In Spezialfällen kann das der Fall sein, aber nicht allgemein. Vgl. Artikel Information  ;-).

HannesH 22:35, 19. Nov 2004 (CET)

Ich halte obigen Abschnitt auch nicht für gelungen (ist auch nicht von mir), und in teilen ungenau bis fehlerhaft. Dennoch bin ich dafür, den Zusammenhang anzuerkennen und zu erläutern. Ich persönlich würde Information einfach als Gegenteil von Entropie betrachten, aber darüber kann man prächtig philosophieren, insbesondere im zusammenhang mit Gravitation. Ich halte es jedoch für kaum bestreitbar, dass jede physikalische Grösse spätestens dann zur Information wird, wenn sie beobachtet wird. Ein gutes Beipiel für den Zusammenhang ist auch der Begriff Wechselwirkung, der ja nur ein anderes Wort für Kommunikation bzw. Informationsübertragung ist. Oder andersrum: Information ist IMHO alles, was einen Unterschied macht. -- D. Düsentrieb 23:42, 19. Nov 2004 (CET)
Nachtrag: ein Zitat aus Entropie, der ganz gut zusammenfasst worum es geht:
Das Gegenteil von Entropie ist Negentropie, also im physikalischen Sinne Ordnung oder im Sinne der Informationstheorie Information.
-- D. Düsentrieb 23:48, 19. Nov 2004 (CET)


Einverstanden. HannesH 10:08, 20. Nov 2004 (CET)
Das halte ich für äusserst widersprüchlich, zu sagen Entropie sei der Gegenpart zu Information, zumal Information wie auch Entropie zwei nach innen gewandte Dinge sind, ebenso ergibt auch ein Ausdruck wie Informationsentropie ein Beinschlag mit Sturz. Grundlegend: Information kann und wird niemals in einer Umwelt auftauchen, daher wird es nie versendet, elektronisch verarbeitet oder gespeichert werden. (Siehe v.Förster,Wissen und Gewissen). Information ist ein Verfahren und kein Datum. @ Düsentrieb...ja du hast recht, wenn es beobachtet wird und ja wenn es einen Unterschied macht,das ist neurophysiologisch begründet, (maturana). Die Veränderungen in unserer Umwelt werden informiert, immer neurophysiologisch, damit unser sensomotorischer Apparat reagieren kann.Information ist dabei eine kontinue aber dennoch temporäre Operation des Gehirns, es würde niemals Sinn machen Informationen zu speichern, nur der Betrag der Information bleibt als Datum zurück, man muss sich mal vorstellen welche Kapazitäten unser Gehirn aufbringen müsste, um das was man üblich als Information versteht zu speichern.
--Vito bica 22:29, 22. Dez 2004 (CET)

[Bearbeiten] Berechtigte Kritik

Ich habe mal zwei absätze mit (IMHO berechtiger) Kritik aus dem Artikel genommen, weil sie dort in dieser From unpassen sind. Bitte erstmal hier diskutieren und dann in konsiser Form einarbeiten. So ist das nur Meta-Information über einen Artikel der über Information informiert...

Also, hier sind die absätze. Der erste war schon 'ne Weile drinn, der zweite kam heute von Benutzer:Dr- Seltsam. -- D. Dÿsentrieb 01:00, 27. Jan 2005 (CET)


(Kritische Anmerkung: Auch während der Übertragung der Informationen mit Hilfe von elektromagnetischen Wellen ist sie an Materie gebunden. Lediglich die Ruhemasse der Teilchen der Strahlung (Photonen) ist Null. Man sollte vielleicht deshalb besser von stofflosem anstelle von masselosem Transport sprechen. Dieselbe Kritik gilt auch an einigen anderen Stellen dieses Artikels. Es ist wahrscheinlich besser, überall statt "Materie und Energie" "Stoff und Energie" zu verwenden, die beide verschiedene Ausprägungen von Materie sind.)

(Weiter kritische Anmerkung: Informationstransport ist eine metaphysische Größe. Bisher gibt es keine Meßverfahren. Wenn in der Physik etwas transportiert wird oder fließt (wie z.B. Elektronen, Wasser, Wellen,..) so werden Meßverfahren definiert, die klären welche Menge in welcher Zeit geflossen sind. Dies ist für Information bisher nicht geleistet. Auch die Isolation eines Grundelementes "Information" ist nicht geleistet. Solange diese nicht geklärt ist würde ich nicht von Informationstransport sprechen. Inzwischen gibt es Modelle der Kommunikation (siehe: Autopoiesis von Maturana und Varela) oder Konstruktivismus (von Glaserfeld), die den Prozess der Kommunikation erklärenn ohne die Annahme von Informationstransport). Der Begriff der des Informationstransportes beruht auf einem Missverständnis des "Sender-Empfänger-Modells" von Shannon und Weaver, die eigentlich Signaltransport meinten, aber Informationstransport geschrieben haben. Dies räumten Shannon und Weaver auch ausdrücklich ein. Ein Signal enthält aber keinerlei Bedeutung - es ist inhaltslos. Dr-Seltsam


ende der Absätze aus dem Artikel -- D. Dÿsentrieb 01:00, 27. Jan 2005 (CET)

[Bearbeiten] Übersicht

Über das Wissen kann man sich nicht einig werden, da es viel zu kompliziert ist. Meine Meinung: Wenn das Wort schon kompliziert ist, dann sollte wenigstens die Seite unkompliziert sein. Z.B.: Das Kapitel "Siehe auch"...

Gruss Steelmaschine

[Bearbeiten] Semantik und DNA

Aus Artikel hierherverschoben: Bereits die strukturelle Ebene setzt eine Semantik voraus, innerhalb derer die Symbole dekodiert werden: Die Struktur der DNA codiert im Rahmen des Genetischen Codes bestimmte Proteine: Um diese Struktur innerhalb der DNA überhaupt zu erkennen, muss bereits die Semantik des genetischen Codes berücksichtigt werden. Denn das DNA-Molekül kann durchaus noch andere Informationen tragen: So ist zum Beispiel die "Doppelhelixstruktur" der Ausdruck einer anderen Semantik, nämlich der des räumlichen Erscheinungsbildes des Moleküls.

Ich denke nicht, dass Semantik ein allgemeiner fest eingeführter Begriff der Genetik ist, auch wenn er vielleicht manchmal umgangssprachlich verwendet wird. Auch im Index mehrerer Wälzer über Molekularbiologie, Genetik, usw. habe ich den Begriff nirgends gefunden. Wenn man in hier schon verwendet, sollte man wenigstens genau angeben wie er hier verstanden wird, da ein Begriff der normalerweise ein bewusstes Wesen impliziert, welches einen Information interpretiert, in einem naturwissenschaftlichen Bereich sehr missverständlich ist. Gruss --Moriolis 05:47, 19. Jun 2005 (CEST)

[Bearbeiten] Neuigkeitsgehalt?

Zitat von der Seite: "Information....Wesentlich für die Information ist die Wiedererkennbarkeit sowie der Neuigkeitsgehalt"

Wiedererkennbarkeit ja, aber Neuigkeitsgehalt??? erscheint mir sehr fraglich. Ist denn eine Information, die fuer mich neu war nach dem lesen keine Information mehr? Oder ist eine "Mitteilung" die mir bekannt ist, meinem Kollegen aber nicht, nun eine Information oder nicht.

Diskussion erwuenscht! --Lepmur 15:34, 11. Jul 2005 (CEST)


Ich kann Dir in der Kritik nur teilweise zustimmen, aber ich bin mit der Begriffserklärung auch nicht einverstanden. Ich sehe es so: Information entsteht, wenn ein Mensch Daten interpretiert. Wenn A die Zeichenkette "04091981" als Geburtsdatum interpretiert, hat er für sich eine Information erzeugt. Wenn B diese Interpretation nicht vermag, bleibt die Zeichenkette für ihn bedeutungslos. Wenn der Neuigkeitsgehalt eines Datums (Datum im Sinne von strukturierten Zeichen) erst Information entstehen lässt, dann wäre "04091981" für A nur im ersten Augenblick der Interpretation eine Information, danach nicht mehr. Da er jedoch seine Interpretationsfähigkeit auch darüber hinaus bewahrt und sie sogar an B weitergeben kann, bleibt "04091981" für ihn eine Information. Folglich ist eine Mitteilung, die Dir bekannt ist, Deinem Kollegen aber nicht, für Dich Information, für Deinen Kollegen nicht. Wenn Dein Kollege die Mitteilung liest, sie aber nicht versteht, entsteht auch keine Information.

Die Beurteilung, ob ein Datum oder eine Datenmenge nun Information ist oder enthält, hängt von der Fähigkeit ab, sie interpretieren/verstehen zu können. Das wiederum ist eine individuelle Fähigkeit. Ich finde es aus diesem Grunde nicht richtig von Informationssystemen, Informationsübertragung oder Informationsverarbeitung etc. zu sprechen, da maschinell nur Signale und Daten verarbeitet werden können. Maschinen können nicht verstehen und nicht interpretieren. Wenn ich einem Chinesen eine plattdeutsche E-Mail schicke, kann man wohl kaum sagen, er hätte Informationen erhalten.

Ich möchte noch einen Punkt absprechen: Im Artikel wird gesagt, dass Information nutzbares oder genutztes Wissen sei. Dieser Satz ist zu oberflächlich und kann falsch bis gar nicht verstanden werden. Er sagt, dass Information durch die Anwendung von Wissen entsteht. Wo aber kommt das Wissen her? Entsteht jedes Mal Information, wenn ich Gewusstes anwende? Ich glaube, der Zusammenhang verläuft anders herum. Ein Mensch erzeugt durch Interpretation aus Daten Informationen. Kann er diese Informationen anwenden, um Probleme zu lösen (auch Zusammenhänge zu erklären etc.), erwirbt er Wissen. Also ist Wissen genutzte oder anwendbare Information, nicht anders herum. Es kann interpretierbare und nichtinterpretierbare Daten, anwendbare und nichtanwendbare Informationen geben, aber kein nutzloses Wissen, denn dann wäre es keins.

Natürlich ist diese Diskussion sehr vage und philosophisch, und wahrscheinlich kann man das Gedankenspiel auch bei Wissen anfangen und bei Daten aufhören. Umso wichtiger finde ich, dass die Begriffserklärungen nicht so oberflächlich und kontextfrei aufgeschrieben werden. Meinem sprachlichem Gefühl nach hat Information eine höhere Qualität als Datum und Wissen wiederum eine höhere Qualität als Information. Dem versuche ich Rechnung zu tragen.

--Alexraasch 16:35, 21. Jul 2005 (CEST)


Ich hab's Euch in Wikiweise:Information nochmal aufgebröselt. Uli 00:37, 22. Jul 2005 (CEST)

Hallo Alexraasch. Ich denke, das Problem ist, daß ein ganz großer Teil der Information, die in so einer Zahlenfolge steckt, außerhalb der Information bereits vorhanden sein muß. Stell Dir doch mal die Information vor, die im Wort "Ja" Steckt. Ein Bit, könnte man jetzt sagen, aber es ist eben doch ganz von der Situation abhängig, in der das Ja kommt. Das berücksichtigen die üblichen Theorien leider nicht, und für meine eigene ist hier nicht genug Platz. --Homosapiens 21:14, 20. Okt. 2006 (CEST)

[Bearbeiten] Definition

Es wurde schon mehrmals hier angesprochen, dass der Begriff 'Wissen' im Artikel problematisch verwendet wird. Zumindest ist die Definition zirkulär. Klickt mal auf Wissen - ist ganz schön verwirrend. Die 'Wikiweise' kann da ein Vorbild sein. -- Gamma 19:45, 15. Sep 2005 (CEST)

[Bearbeiten] Lesenswert-Diskussion Nov. 2005

Information (von lateinisch: informare 'bilden, durch Unterweisung Gestalt geben') ist ein potenziell oder tatsächlich vorhandenes nutzbares oder genutztes Muster von Materie und/oder Energieformen, die für einen Betrachter innerhalb eines bestimmten Kontextes relevant ist. Wesentlich für die Information ist die Wiedererkennbarkeit sowie der Neuigkeitsgehalt. Das verwendete Muster verändert den Zustand eines Betrachters – im menschlichen Zusammenhang insbesondere dessen Wissen. Formaler ist Information die Beseitigung von Unbestimmtheit.

Pro Antifaschist 666 23:50, 7. Nov 2005 (CET)

  • contra --Elian Φ 03:49, 10. Nov 2005 (CET)
Üblicherweise begründet hier derjenige, der zuerst mit "Contra" stimmt, seine Meinung. Nicht zuletzt um den Autoren einen Hinweis zur Verbesserung des Artikels zu geben. --Bender235 00:51, 14. Nov 2005 (CET)

[Bearbeiten] Informationsquellen

Am Artikelende befindet sich ein auskommentierter Text aus Informationsquellen - Bitte einarbeiten/bearbeiten, Danke Matt1971 ♫♪ 14:50, 16. Jan 2006 (CET)


[Bearbeiten] zu Literatur

Literatur zu dem Thema ist sicherlich ein schwieriges Thema, da es Bücher nicht nur in allen Fachgebieten, sondern auch in allen Schattierungen gibt - vom wissenschaftlichen Lehrbuch bis hin zur esoterischen Verbrämung. Ein Literatursegment auf Wikipedia kann also höchstens ein kleiner Auszug davon sein.

Dass auf Wikipedia alle Positionen vertreten sein können (NPOV), ist für mich ein gewaltiger Vorzug gegenüber allen Fachpublikationen, da Innovation nichts ist, was sich in Ketten oder Patenten, Titeln oder Posten einfangen lässt, also bitte nicht falsch verstehen, dass ich gerne so etwas wie eine Thematisierung innerhalb der Literaturquellen hätte. So eine Art "Kennung", ob es sich hier nun um eine allgemein anerkannte Position handelt, eine diskutierte, doch fundierte oder eine völlige Außenseiter-Meinung (wie in der Justiz, wo es eine "herrschende Meinung", eine "im Herrschende Meinung werdende Mindermeinung" (oder so ähnlich) und eine "gelegentlich diskutierte Mindermeinung" gibt). Ich habe deshalb erst vor drei Tagen zwei unbekannte weitere Definitionen der Information zu der Überschrift "Information als Veränderung" hinzugefügt, weil ich persönlich sie zwar hochinteressant/überzeugend finde, sonst aber wohl kaum einer und weil dieser Standpunkt ansonsten praktisch nie diskutiert wird (auf Wikipedia auch erst seit dem 23.01.05) - also sicher nicht "herrschende Meinung" ist und weil erst das Vorhandensein dieser Überschrift mich davon überzeugte, dass es wohl genügend Diskussionsstoff auch an dieser Ecke schon gibt, um die beiden Definitionen als vervollständigende Ergänzung zu erwähnen.

Deshalb will ich mich auch nicht in die Inhalte der Literaturquellen einmischen - wenn aber ein Holger Lyre zusammen mit einem "kreationistischen Informatiker" (aus der Quellenangabe) genannt wird, dann frage ich mich einfach, ob interessierte Leute, die sich mit dem Thema erstmalig beschäftigen, nicht Hilfestellung erhalten sollten, denn Kreationismus wird hier in Europa noch nicht als Wissenschaftsdisziplin verstanden, Quantenphysik aber schon. Quellen werden aus dem Grund angegeben, dass man sie nachverfolgen, prüfen und selbst einstufen kann - Internet-Links sind hier einfach, ein Klick und du kannst sehen, was es ist. Doch Bücher zu kaufen, ist kostspieliger in Zeit und Geld und wird deshalb sicher weit weniger nachgeprüft: Wikipedias guter Ruf (Computerwoche ISSN 0170-5121, 4/2006, S. 4, Frage der Woche: Vertrauen Sie den Inhalten von Wikipedia: 82,0 % Ja) sollte nicht dazu dienen dürfen, persönliche Weltvorstellungen auf gleiche Ebene wie naturwissenschaftlich beweisbare Sachverhalte zu stellen, um die Überzeugungskraft der Naturwissenschaft (ohne deren exakte Methodik) für die eigenen Anschauungen "einzusetzen" - ohne dass dies zumindest gekennzeichnet wird.

Andererseits sollen und dürfen Außenseitermeinungen nicht diskriminiert werden. Frage also: Wie bringt man beides unter einen Hut? --Bussole 10:24, 28. Jan 2006 (CET)

[Bearbeiten] Etymologie des Wortes "Information"

Ich weiß nicht, woher diese "in forma tuon"-Geschichte stammt, aber sie ist völlig aus der Luft gegriffen. 'Informatio' kommt natürlich aus dem Lateinischen und ist dort auch belegt, und den Begriff 'Altdeutsch' gibt es in der Linguistik nicht. Soll das Althochdeutsch sein? Egal, die Deutung ist ohnehin falsch.--84.169.83.120 16:39, 31. Jan 2006 (CET)

Siehe dazu Benutzer_Diskussion:JFKCom#Information_Wortherkunft. Ich bin als total unwissender aber auch eher geneigt der lateinischen Version vorrang zu geben, einfach weil sie insgesamt anerkannter ist als die von JFKCom. --dbenzhuser 16:49, 31. Jan 2006 (CET)
Du lieber Himmel ... aus dieser Ecke stammt das also. Was für ein blühender Unsinn! Als ob das Wort "Information" jemals Bestandteil der "altdeutschen Volkssprache" gewesen wäre und somit nicht aus der "Schriftsprache" Latein stammen könnte. Vielleicht verrät Herr Zillmer uns, ob er für jedes Wort mit der Endung -tion eine ähnlich plausible Herleitung vorbringen kann? B. Neuner
Bevor ich's vergesse: "Form" im Deutschen kommt natürlich auch vom lateinischen 'fōrma', insofern ist "in forma tuon" ohnehin ein Eigentor. B. Neuner

Ist ja wunderbar und beinahe schon unfassbar, dass endlich hier mal jemand gerafft hat, was die Wikipedia seit Wochen für einen Blödsinn erzählt. Der Artikel steht garantiert auf zig Beobachtungslisten. Und natürlich, die hier genannte Etymologie ist hirnrissig, und sie wird auch nicht besser, wenn JFK Zillmers von keinerlei wissenschaftlichem Erkenntnisstand getrübten Fantastereien als "kritischere Fachliteratur" verkauft. Naja, die typische Literatur halt, aus der Wikipedia Artikel gemacht sind... Uli 20:02, 1. Feb 2006 (CET) (Wikiweise - besser zu Wissen!)

Naja, die typische Literatur halt, aus der Wikipedia Artikel gemacht sind... - ich habe zwar auch Bedenken gegen manche Quellenangaben (s.o. "zu Literatur"), zumindest ohne weitere Hilfestellung, obige Formulierung erweckt jedoch den Anschein, als wären Wikipedia-Artikel generell unglaubwürdig. Das freilich scheint den oben zitierten Ergebnissen der Computerwoche nach nicht allgemein so gesehen zu werden, deren Publikum sicher nicht statistisch repräsentativ, aber vermutlich auch nicht überwiegend auf den Kopf gefallen ist. Dass Wikipedia keine Wissenschaftslektüre ist, heißt schließlich längst nicht, dass es "typischerweise" von "keinerlei wissenschaftlichem Erkenntnisstand getrübten Fantasterei" sein muss - Wikipedias Absicht liegt auch eigenem Bekenntnis nach nicht in Fachliteratur: "Die Wikipedia ist eine allgemeine Enzyklopädie und kein Fachbuch. Jeder Artikel sollte deshalb auch für Laien verständlich sein." aus Wikipedia:Wie_schreibe_ich_einen_guten_Artikel. Auch scheint mir diese abfällige Formulierung sogar mit dem NPOV-Prinzip von Wikipedia in Konflikt zu geraten - denn wer sollte entscheiden, welche Position, "die nicht dem „Stand der Wissenschaft“ entsprechen oder kontrovers sind" nun "von keinerlei wissenschaftlichem Erkenntnisstand getrübten Fantasterei" ist und welche Innovation? Gerade solche unbekannte Positionen sind selbst von hochkarätigen Wissenschaftler keineswegs immer auf den ersten Blick korrekt einzustufen. --Bussole 18:39, 2. Feb 2006 (CET)
Ihr habt ja recht, dass erst mal die offizielle Lehrmeinung genannt wird, dann erst die mögliche andere Herkunft des Wortes als Zweitnennung. Hab mal ne dreiviertel Rolle rückwärts gemacht und das entsprechend angepaßt. Aber wir sollten die ausfallenden Bemerkungen von Benutzer:Ulrich.fuchs nicht so wichtig nehmen! Dieser EDV-Berater nutzt jede Möglichkeit einer fulminanten Diskussion unter der Gürtellinie, um seine typischen Selbstdarsteller-Links auf die eigene "Wikiweise" (wo er als "Gottheit" uns Wiki-Autoren in "gut" und "böse" klassifiziert) und mittelbar - über seinen Starautor-Auftritt darin - auf seine EDV-Schuppenseite publikumswirksam anzubringen. Brrr.--JFKCom 22:42, 2. Feb 2006 (CET)
auf die eigene "Wikiweise" - fragte mich schon, was das (ohne Link) sollte. Andererseits ist das Klientel der Computerwoche genau seine Branche und wie gesagt, die hält viel von Wikipedia ;-) --Bussole 16:18, 3. Feb 2006 (CET)

Ich habe den Unsinn jetzt herausgenommen. --Tilman 10:47, 25. Feb 2006 (CET)

Weil JFKCom die Ableitung aus dem Althochdeutschen noch einmal hineingesetzt hat, will ich noch etwas deutlicher sagen, warum das Unsinn ist. Erstens steht in sämtlicher seriöser Literatur (ich verweise nur auf das "Etymologische Wörterbuch des deutschen Sprache" von Kluge/Seebold) nur die Ableitung aus dem Lateinischen, zweitens müsste man dann, wenn man Information wirklich so herleiten, erst erklärt werden, warum das Wort im Englischen und Französischen genauso lautet (die stammen nun wahrlich nicht vom Althochdeutschen ab). Auch die Erwähnung an zweiter Stelle ist meines Erachtens nicht sinnvoll - wenn die Wikipedia eine seriöse Enzyklopädie werden will, dann kann sie sich solche Pseudotheorien nicht leisten. Gruß --Tilman 00:16, 26. Feb 2006 (CET)

Wer solls verstehen?: "Information ist ... ein Muster" Leider kann ich mir keine Vorstellung machen von dem, was das ist, eine Information, wenn Information wie oben begonnen wird zu definieren. Das geht einfach nicht so. Ich weiß es zwar nicht besser, aber ich weiß, so geht das nicht; man wird verwirrter statt klüger, wenn man ein Lexikonartikel wie diesen zu Rate ziehen möchte. 12.4.06, 11.30 Uhr (CET)

[Bearbeiten] Informationstheorie

Der Abschnitt zur Informationstheorie war sachlich grob falsch (bitte im entsprechenden WP-Artikel nachlesen), ich habe ihn daher gelöscht. Ein Hinweis wäre allerdings schon weiter oben im Artikel notwendig. Ich versuche es mal einzubringen. --Homosapiens 20:32, 20. Okt. 2006 (CEST)

[Bearbeiten] Information und Kontext

Ich finde im Artikel außer im ersten Absatz das Wort Kontext überhaupt nicht. Jeder wird mir zustimmen, daß Informationen vom Kontext abhängen, aber in der Theorie findet sich das nicht wieder. Gibt es denn da keine Literatur, die das beleuchtet? Schließlich ist das Ja-Wort vor dem Altar im Sinne der Informationstheorie nur ein Bit. Der Versuch, alle Bedeutung in diesem einen Bit zu suchen, wäre sicher nicht sinnvoll. Aber irgendwo steckt ja die besondere Bedeutung, und offensichtlich eben nicht in der Information, sonder außerhalb von ihr. --Homosapiens 00:30, 28. Okt. 2006 (CEST)

Static Wikipedia (no images)

aa - ab - af - ak - als - am - an - ang - ar - arc - as - ast - av - ay - az - ba - bar - bat_smg - bcl - be - be_x_old - bg - bh - bi - bm - bn - bo - bpy - br - bs - bug - bxr - ca - cbk_zam - cdo - ce - ceb - ch - cho - chr - chy - co - cr - crh - cs - csb - cu - cv - cy - da - de - diq - dsb - dv - dz - ee - el - eml - en - eo - es - et - eu - ext - fa - ff - fi - fiu_vro - fj - fo - fr - frp - fur - fy - ga - gan - gd - gl - glk - gn - got - gu - gv - ha - hak - haw - he - hi - hif - ho - hr - hsb - ht - hu - hy - hz - ia - id - ie - ig - ii - ik - ilo - io - is - it - iu - ja - jbo - jv - ka - kaa - kab - kg - ki - kj - kk - kl - km - kn - ko - kr - ks - ksh - ku - kv - kw - ky - la - lad - lb - lbe - lg - li - lij - lmo - ln - lo - lt - lv - map_bms - mdf - mg - mh - mi - mk - ml - mn - mo - mr - mt - mus - my - myv - mzn - na - nah - nap - nds - nds_nl - ne - new - ng - nl - nn - no - nov - nrm - nv - ny - oc - om - or - os - pa - pag - pam - pap - pdc - pi - pih - pl - pms - ps - pt - qu - quality - rm - rmy - rn - ro - roa_rup - roa_tara - ru - rw - sa - sah - sc - scn - sco - sd - se - sg - sh - si - simple - sk - sl - sm - sn - so - sr - srn - ss - st - stq - su - sv - sw - szl - ta - te - tet - tg - th - ti - tk - tl - tlh - tn - to - tpi - tr - ts - tt - tum - tw - ty - udm - ug - uk - ur - uz - ve - vec - vi - vls - vo - wa - war - wo - wuu - xal - xh - yi - yo - za - zea - zh - zh_classical - zh_min_nan - zh_yue - zu -

Static Wikipedia 2007 (no images)

aa - ab - af - ak - als - am - an - ang - ar - arc - as - ast - av - ay - az - ba - bar - bat_smg - bcl - be - be_x_old - bg - bh - bi - bm - bn - bo - bpy - br - bs - bug - bxr - ca - cbk_zam - cdo - ce - ceb - ch - cho - chr - chy - co - cr - crh - cs - csb - cu - cv - cy - da - de - diq - dsb - dv - dz - ee - el - eml - en - eo - es - et - eu - ext - fa - ff - fi - fiu_vro - fj - fo - fr - frp - fur - fy - ga - gan - gd - gl - glk - gn - got - gu - gv - ha - hak - haw - he - hi - hif - ho - hr - hsb - ht - hu - hy - hz - ia - id - ie - ig - ii - ik - ilo - io - is - it - iu - ja - jbo - jv - ka - kaa - kab - kg - ki - kj - kk - kl - km - kn - ko - kr - ks - ksh - ku - kv - kw - ky - la - lad - lb - lbe - lg - li - lij - lmo - ln - lo - lt - lv - map_bms - mdf - mg - mh - mi - mk - ml - mn - mo - mr - mt - mus - my - myv - mzn - na - nah - nap - nds - nds_nl - ne - new - ng - nl - nn - no - nov - nrm - nv - ny - oc - om - or - os - pa - pag - pam - pap - pdc - pi - pih - pl - pms - ps - pt - qu - quality - rm - rmy - rn - ro - roa_rup - roa_tara - ru - rw - sa - sah - sc - scn - sco - sd - se - sg - sh - si - simple - sk - sl - sm - sn - so - sr - srn - ss - st - stq - su - sv - sw - szl - ta - te - tet - tg - th - ti - tk - tl - tlh - tn - to - tpi - tr - ts - tt - tum - tw - ty - udm - ug - uk - ur - uz - ve - vec - vi - vls - vo - wa - war - wo - wuu - xal - xh - yi - yo - za - zea - zh - zh_classical - zh_min_nan - zh_yue - zu -

Static Wikipedia 2006 (no images)

aa - ab - af - ak - als - am - an - ang - ar - arc - as - ast - av - ay - az - ba - bar - bat_smg - bcl - be - be_x_old - bg - bh - bi - bm - bn - bo - bpy - br - bs - bug - bxr - ca - cbk_zam - cdo - ce - ceb - ch - cho - chr - chy - co - cr - crh - cs - csb - cu - cv - cy - da - de - diq - dsb - dv - dz - ee - el - eml - eo - es - et - eu - ext - fa - ff - fi - fiu_vro - fj - fo - fr - frp - fur - fy - ga - gan - gd - gl - glk - gn - got - gu - gv - ha - hak - haw - he - hi - hif - ho - hr - hsb - ht - hu - hy - hz - ia - id - ie - ig - ii - ik - ilo - io - is - it - iu - ja - jbo - jv - ka - kaa - kab - kg - ki - kj - kk - kl - km - kn - ko - kr - ks - ksh - ku - kv - kw - ky - la - lad - lb - lbe - lg - li - lij - lmo - ln - lo - lt - lv - map_bms - mdf - mg - mh - mi - mk - ml - mn - mo - mr - mt - mus - my - myv - mzn - na - nah - nap - nds - nds_nl - ne - new - ng - nl - nn - no - nov - nrm - nv - ny - oc - om - or - os - pa - pag - pam - pap - pdc - pi - pih - pl - pms - ps - pt - qu - quality - rm - rmy - rn - ro - roa_rup - roa_tara - ru - rw - sa - sah - sc - scn - sco - sd - se - sg - sh - si - simple - sk - sl - sm - sn - so - sr - srn - ss - st - stq - su - sv - sw - szl - ta - te - tet - tg - th - ti - tk - tl - tlh - tn - to - tpi - tr - ts - tt - tum - tw - ty - udm - ug - uk - ur - uz - ve - vec - vi - vls - vo - wa - war - wo - wuu - xal - xh - yi - yo - za - zea - zh - zh_classical - zh_min_nan - zh_yue - zu

Static Wikipedia February 2008 (no images)

aa - ab - af - ak - als - am - an - ang - ar - arc - as - ast - av - ay - az - ba - bar - bat_smg - bcl - be - be_x_old - bg - bh - bi - bm - bn - bo - bpy - br - bs - bug - bxr - ca - cbk_zam - cdo - ce - ceb - ch - cho - chr - chy - co - cr - crh - cs - csb - cu - cv - cy - da - de - diq - dsb - dv - dz - ee - el - eml - en - eo - es - et - eu - ext - fa - ff - fi - fiu_vro - fj - fo - fr - frp - fur - fy - ga - gan - gd - gl - glk - gn - got - gu - gv - ha - hak - haw - he - hi - hif - ho - hr - hsb - ht - hu - hy - hz - ia - id - ie - ig - ii - ik - ilo - io - is - it - iu - ja - jbo - jv - ka - kaa - kab - kg - ki - kj - kk - kl - km - kn - ko - kr - ks - ksh - ku - kv - kw - ky - la - lad - lb - lbe - lg - li - lij - lmo - ln - lo - lt - lv - map_bms - mdf - mg - mh - mi - mk - ml - mn - mo - mr - mt - mus - my - myv - mzn - na - nah - nap - nds - nds_nl - ne - new - ng - nl - nn - no - nov - nrm - nv - ny - oc - om - or - os - pa - pag - pam - pap - pdc - pi - pih - pl - pms - ps - pt - qu - quality - rm - rmy - rn - ro - roa_rup - roa_tara - ru - rw - sa - sah - sc - scn - sco - sd - se - sg - sh - si - simple - sk - sl - sm - sn - so - sr - srn - ss - st - stq - su - sv - sw - szl - ta - te - tet - tg - th - ti - tk - tl - tlh - tn - to - tpi - tr - ts - tt - tum - tw - ty - udm - ug - uk - ur - uz - ve - vec - vi - vls - vo - wa - war - wo - wuu - xal - xh - yi - yo - za - zea - zh - zh_classical - zh_min_nan - zh_yue - zu