hallo Jürgen,
Antwort auf: trifft es somit zu, daß ich nur anhand der Zeichenzahl erkennen kann, ob es sich bei einem TrueType-Font um einen Unicode-Zeichensatz handelt?
Es ist unerheblich, in welcher Codierung Schriften ursprünglich erstellt worden sind, denn Unicode ist *abwärtskompatibel*, weist also jedem Zeichen einen neuen Code zu, sofern dies notwendig ist.
Das bedeutet, dass die ersten 256 Zeichen aller Schriften in der Regel von allen Anwendungsprogrammen richtig interpretiert werden. Zeichen, die außerhalb des Bereichs der Standard-Programmierung ASCII bzw. MacRoman, Windows Latin-1252 etc. liegen, können zwar über die System-Zeichentabelle oder -palette eingesehen, aber nur in unicodefähige Programme auch übernommen werden.
Sowohl in der Zeichentabelle des Systems als auch in der Glyphenpalette des jeweiligen Programms wird auch der Unicode jedes Zeichens angegeben. Auch dann, wenn die Schrift gar nicht in Unicode programmiert wurde, da sich der Unicode eben über jedes Zeichen »überstülpt«. Ein »A«, das den ASCII-Hexadezimal-Code 41 zugewiesen hat, bekommt dann eben den Unicode 0041.
Ich würde mir also nicht den Kopf darüber zerbrechen, wie Zeichen programmiert sind, da sich das in der Praxis ohnehin offenbart. Für die Programmierung der Zeichen spielt es auch nicht die geringste Rolle, ob das Font-Dateiformat TrueType oder OpenType ist.