Nochmal ein paar Worte für das Grundverständnis mit den Kanälen. Jedes Bild besteht aus zig Pixeln. Und jedes Pixel hat ja ne Farbe. Und diese Farbe wird aus Grundfarben gemischt. Allerdings nicht wie in der Kunstlehre mit den Primärfarben Rot Gelb und Blau, sondern Rot Grün und Blau (grün wird ja eigentlich aus blau und gelb gemischt).
Für jedes Pixel wird also der Anteil jeder Farbe gespeichert. Üblicherweise als 8 bit Wert. 8 bit lässt einen 256 Werte speichern (2^8), also 0-255. Je höher der Wert für eine Farbe, desto mehr Einfluss hat sie auf die resultierende Farbe. 255 0 0 macht also volles Rot (rgb Notation).
Ein Bild mit RGB Farben hat also eine farbtiefe von 24bit. 3 Farben/Kanäle zu jeweils 8 bit... 3x8=24 Nun kannst du noch einen weiteren kanal hinzufügen, der allerdings nicht als Farbe gewertet wird. Das wäre dann der Alpha kanal für die Transparenz. Legst du mehrere Bilder übereinander, bestimmt dieser Wert, wie stark das "obere" Bild (oder im 3D Sinne das vordere Objekt) das untere verdeckt. Hat auch wieder 8 bit, ergo wird das Bild dann 32 bit schwer. Also pro Pixel. Wenn du 20x20 Pixel hast, sind das also 400 Pixel á 32 bit macht 12.800 bit Datenmenge. Plus Header (Dateiformat, Auflösung, farbtiefe...) und so.
Und anstatt 8bit pro Kanal, kannst du auch 16 bit nehmen. Oder 32. Oder... dann kannst du halt mehr wie nur 256 Werte speichern. Oder szs auch 135,376 speichern, mal blöd gesagt.
Gut. Nun kann man das natürlich auch etwas abstrakter sehen. Also man sieht das jetzt nicht als 3 speicherbare Werte für Farben an, sondern für sonstwas. So zum Bsp einen Wert der bestimmt, wie stark etwas spiegelt, leuchtet oder was weiß ich. Dazu benötigt man natürlich das entsprechende Programm, dass diese Werte auch so interpretiert, wie man sich das vorstellt. Im Falle von TpF sind das die Shader, welche man mit den entsprechenden Texturen füttert. Je nach Material wird ein anderer Shader genommen.
Gut, ist zwar doch etwas mehr geworden, aber eventuell hilft dir das etwas beim besseren verstehen