tuttocina tuttocina
Google Web https://www.tuttocina.it
INDICE>MONDO CINESE>IL X CONVEGNO INTERNAZIONALE UNICODE  MAINZ, 10-12 MARZO 1997

RAPPORTI

Il X Convegno Internazionale Unicode  Mainz, 10-12 marzo 19971

di Federico Greselin

Dal 10 al 12 marzo c.a. si è tenuto a Mainz in Germania il X convegno internazionale del Consorzio Unicode, dal titolo "Europe, Software + the Internet: Going Global with Unicode". Ho ritenuto opportuno cogliere l'occasione di questo appuntamento europeo del Consorzio per appurare lo stato dei lavori in un settore dell'informatica che va considerato estremamente importante per tutti gli studi orientali.

Il Consorzio Unicode (vale la pena di ricordarlo), è un'organizzazione internazionale che si occupa della definizione e dell'implementazione di un nuovo standard per la gestione informatica dei testi, che, basandosi su un assetto a 16 bit, intende superare i limiti dell'ormai obsoleto predominio della codificazione che prevede la suddivisione tra ASCII (a 7 bit) e ANSI (a 8). Per quanto riguarda le lingue dell'Asia orientale, nello standard2 Unicode sono riservate per il momento aree ben precise: nella versione 2.0 è prevista, per esempio, la gestione di 21.000 caratteri comuni per il cinese, il giapponese e il coreano (CJK), e altri spazi sono riservati a punteggiatura, hiragana e katakana, bopomofo ecc. Ovviamente in modo analogo si è operato per quasi tutte le altre lingue del mondo e particolare attenzione è stata dedicata, com'è comprensibile, ai vari problemi specifici: in sostanza, l'ideologia operativa di Unicode consiste nel fatto che a un determinato spazio di codice, definito in 16 bit e quindi su un totale di 64.000 circa spazi disponibili, corrisponde sempre e soltanto un solo carattere, appartenente a un'unica determinata area linguistico-semantica, cui corrisponde a sua volta un determinato glifo (ovvero la rappresentazione grafica individuale del carattere stesso). Dal punto di vista morfologico, si può facilmente capire come, mentre per il sistema ideografico CJK non sussistono particolari problemi, occupando i caratteri cinesi ognuno uno spazio uguale, per altre scritture come l'araba, l'ebraica, il sanscrito o l'hangul ecc. le difficoltà nell'organizzazione e nella gestione dei caratteri (e quindi dei codici in Unicode) sono notevoli, abbondando nella visualizzazione grafica della scrittura i cambiamenti morfologici (ligature, modificazioni della grafia in base alla posizione nella frase e all'accentazione ecc.). Oltre a questi problemi sono stati brillantemente risolti altri aspetti non immediatamente rilevabili, quali la gestione dei diacritici e la coesistenza con sistemi preesistenti (sono già pronte le tavole di conversioni da e in Unicode da tutti i precedenti sistemi di codificazione per l'area CJK, quali Big5 e GB per il cinese, JIS e Shift-JIS per il giapponese ecc.).

I vantaggi di Unicode rispetto ai sistemi attualmente in uso in qualsiasi piattaforma sono notevoli, anche se forse non immediatamente intuibili: da un punto di vista tecnico possiamo dire che sostanzialmente il nuovo standard è disponibile a sistema, il che significa che il computer "pensa" riferendosi a 64.000 caratteri, senza più basarsi sui 256 caratteri ANSI per combinarli a due a due come nel caso dei codici DBCS (Double Byte Character System) di cui si servono ora tutti i tipi di software che impieghiamo quotidianamente. Questo significa che, mettiamo in una pagina di testo, posso disporre di stringhe composte servendomi di un unico codice per tutte le lingue che mi interessano, addirittura, se necessario, visualizzandoli con un unico font3 . Alcuni ambienti operativi (MacOs comprensivo della tecnologia Worldscript) e/o alcuni software specializzati consentono di ottenere un risultato che, pur simile all'apparenza, sottende una gestione non diretta da parte del sistema dei testi multilinguistici, ma bensì affidata a soluzioni extra-sistema. In parole povere, mentre la stringa 

國語歷變薹国语历变台

che comprende cinque caratteri cinesi in versione prima fantizi e poi jiantizi è stata scritta con un apposito applicativo4 utilizzando in uno stesso documento due codici (Big5 e GB), attualmente corrisponde alla stringa

國語歷變薹国语历变台

che varia nella sua apparenza grafica a schermo e a stampa in virtù di algoritmi messi in atto dal software per la gestione delle lingue, con Unicode disponiamo invece, per realizzare lo stesso risultato, di dieci diversi codici indipendenti, ai quali corrispondono dieci diversi glifi.

Se per un normale lavoro di word processing e di editing tutto sommato ci si potrebbe accontentare di quanto disponibile attualmente (e, in effetti, l'editoria in tutta l'Asia orientale si basa ormai su sistemi informatizzati ancora, giocoforza, pre-Unicode), anche se forse si potrebbe migliorare una situazione non ottimale, per la gestione di una realtà che è già multilinguistica, per le imprese che operano su scala planetaria mediante banche dati veramente efficienti, nel mondo delle comunicazioni e (a mio avviso) in quello degli studi specialistici, l'adozione di un sistema generale come Unicode è ormai improcrastinabile.

Tra i membri fondatori o comunque attivi del Consorzio figurano le più importanti aziende informatiche (Apple, IBM, Microsoft, Netscape, Novell, Sun, Sybase, Xerox ecc.) e la presenza al convegno di alcuni mostri sacri dell'informatica degli applicativi (tra gli altri Freytag, Wolf ecc.) è significativa dell'interesse che il nuovo standard desta ai più alti livelli. Se anche nelle varie commissioni in cui si è articolato dal 1991 il lavoro che ha portato alla definizione dell'attuale versione del codice, la presenza di personalità accademiche ha garantito una qual certa qualità culturale nell'elaborazione dello standard, al momento attuale sono le aziende commerciali a essere maggiormente coinvolte nell'operazione. Questo va considerato un segnale estremamente positivo: al Convegno, infatti, le aziende più attive erano Microsoft e Netscape (vale a dire i leader mondiali nel settore del software per piattaforme e per le comunicazioni) che hanno messo in mostra le più recenti implementazioni dello standard negli applicativi più popolari il che significa che Unicode rappresenta ormai un punto fermo dell'evoluzione generale del software.

I tre giorni in cui si è svolto il Convegno hanno presentato un calendario intenso: la divisione dei lavori in tre sessioni distinte, grosso modo articolate per tematiche (anche se non sempre in maniera congrua), ha certo da un lato favorito l'estensione degli argomenti in discussione, ma dall'altro ha determinato dolorose rinunce in chi come il sottoscritto, era interessato alla quasi totalità degli argomenti in discussione. A queste suppliva invero una voluminosa documentazione (3 volumi!) che raccoglie in pratica le tracce dettagliate di tutti i singoli interventi, complete di screenshot. Ogni intervento prevedeva infatti l'utilizzazione da parte dell'oratore di un PC (generalmente un portatile) collegato a un proiettore RGB: le sale, che ospitavano al massimo una settantina di spettatori, consentivano una visione abbastanza soddisfacente. I sistemi in uso erano nella quasi assoluta totalità Windows 95 o Nt 4 e il software impiegato per le presentazioni era Microsoft Powerpoint, mentre, di volta in volta, i vari oratori per dimostrazioni varie si servivano ovviamente di altri prodotti più specifici.

Nella sera del primo giorno l'allestimento di uno showcase avrebbe dovuto consentire ai convegnisti di venire aggiornati sulle più recenti implementazioni di Unicode in prodotti leader, ma pochi erano gli espositori e del tutto deludenti i prodotti, se si eccettua la presentazione dei nuovi font Unicode da parte di una nota casa specializzata. Va però detto che molti degli interventi erano costituiti proprio dalla dimostrazione dei progressi compiuti fatta dai diretti responsabili delle varie aziende coinvolte dell'implementazione di Unicode, il che ha reso in pratica irrilevante la suddetta esposizione.

Segue una panoramica necessariamente per grandi linee sugli interventi che ritengo più rilevanti: contattando il già citato sito Web del Consorzio è possibile ottenere un'ampia documentazione sul Convegno.

1. Sistemi operativi

Unicode è attualmente implementato nel sistema Windows più evoluto (NT) e questo sin dalla prima versione, la 3.0, ma "vive" in sostanza anche nel più diffuso e popolare Windows 95, come è stato ampiamente dimostrato da Murray Sargent III, senior software engineer della casa di Seattle (B7: A Unicode Text Objexct Model - TOM). Se un "full support" per la piattaforma Macintosh sembra che sarà garantito solo con il System 8, tuttavia, come annunciato e dimostrato da Merle Tenney (C6: The Future of Unicode Support on the Macintosh), Unicode viene implementato già in taluni prodotti della Apple.

Va però sottolineato che, nonostante la casa di Cupertino sia stata tra i fondatori del Consorzio e abbia avuto un ruolo rilevante nella definizione dello standard, il contributo dato da operatori della Apple ai lavori del Convegno è da considerarsi deludente, a conferma delle sempre più diffuse voci di crisi. Estremamente defilati sono apparsi anche interventi che si proponevano di illustrare l'implementazione di Unicode su sistemi Unix. In sostanza, come del resto era logico aspettarsi, anche in questa sede sono state confermate le attuali tendenze di mercato, che vedono una netta prevalenza in campo personal della cosiddetta "piattaforma Wintel" e una sempre maggiore propensione alla conversione in questa di sistemi software precedentemente considerati di nicchia (per il publishing, la gestione di banche dati per le aziende ecc.).

2. Implementazione di Unicode in vari applicativi non-Internet

Anche in questo caso la parte da leone è stata fatta da operatori della Microsoft: in particolare grande impressione hanno destato le capacità di gestione di testi multilinguistici di cui è stato fornito il popolare pacchetto Office, capacità illustrate da Chris Pratley, responsabile dell'internazionalizzazione. L'oratore si è soffermato anche sui futuri sviluppi, parlando in misura approfondita della cosiddetta versione 9x dell'applicativo5 e ha offerto dimostrazioni estremamente efficaci della semplicità e della trasparenza con cui opera il nuovo standard. Lo scheduling della Microsoft per l'adeguamento a Unicode dei suoi applicativi prevede il porting dello standard in tutti i prodotti facenti capo alla suite suddetta (oltre che a Internet Explorer) fin dalla prossima versione: al momento solo Word e Excel, oltre che il comune linguaggio di programmazione interna Visual Basic for Applications, supportano pienamente le funzionalità Unicode. L’intervento di Pratley ha sostanzialmente confermato l'impegno della più grossa azienda produttrice di software al mondo nell'implementazione di Unicode, il che di per sé potrebbe costituire una garanzia sufficiente per un interessamento nello standard anche da parte di operatori non direttamente coinvolti nell'attuale mercato commerciale.

Nell'ambito del settore del desktop publishing, che tanta rilevanza presenta per il mondo accademico, visto che nel nostro specifico settore di studi le nuove tecnologie vengono impiegate quasi esclusivamente a fini editoriali, erano presenti esponenti di tre delle ditte maggiormente coinvolte nell'implementazione del nuovo standard su prodotti destinati a tali attività. La Xerox era rappresentata da Richard Ishida, specialista in interfacce multilinguistiche, che tuttavia si è limitato a interessanti esposizioni di teorie generali (Tutorial C: Non-Latin writing Systems... e C15: Internationalization: More than just Character Sets). MGI è una casa specializzata in software per la grafica e l'editoria: la versione 2.0 del pacchetto modulare per il DTP Calamus, che ora supporta pienamente Unicode, è stata presentata da Thomas Nielsen, responsabile dello sviluppo del prodotto, che ha esposto lucidamente le problematiche legate all'utilizzazione di Unicode in programmi specializzati nella gestione di testi (B6: Deueloping a Unicode Desktop Publishing Application Based on Windows NT and Windows 95). Chi scrive ritiene che, almeno per quanto è potuto risultare da questo intervento, Calamus possa nel prossimo futuro rappresentare una valida alternativa in Unicode ad attuali sistemi basati sui vecchi codici, anche se per attività editoriali meno legate a un output a stampa di altissima qualità lo stesso Word 97 può già essere considerato un significativo progresso. Gli interventi di David Goldstein, dell'israeliana Accent Software (C 14 e C 16: Strategies for Globalizing Software), oltre a toccare aspetti tecnici illuminanti6 , ha permesso di constatare come anche piccole software house fuori dei giri più importanti possano apportare un notevole contributo in settori specifici; le proposte della Accent, oltre a un browser multilinguistico per il WWW comprendono sistemi completi di input e gestione di lingue diverse, un word processor multilinguistico e altro ancora. Pur se specializzato nella gestione di lingue come l'ebraico e l'arabo, il software della casa israeliana andranno tenute sotto stretta osservazione perché suscettibili di grandi sviluppi anche in direzioni più vicine alle aree di nostro interesse.

Al Convegno erano presenti specialisti del settore da sempre più attento alle esigenze dell'industria, quella cioè che si occupa della gestione delle banche dati: Stefan Buchta (Software AG) e Mike McKenna (Sybase) (Tutorial D: Language Support and Unicode in Relational Databases and SQL e C3: Conversion of a Multinational Software Developer to Unicode...), ma anche gli stessi esponenti della Microsoft, hanno illustrato con dovizia di particolari come l'esigenza di gestire dati realmente multilinguistici non possa non comprendere la trasmigrazione in Unicode da parte dei più noti e potenti protocolli per le basi di dati e in particolare di SQL. Sempre nell'ambito della gestione di dati, ma da un punto di vista più specifico e direttamente più coinvolgente il mondo accademico, va considerato estremamente rilevante l'intervento di Anthony Brickell della British Library (C10: The CHASEProject-Experiments with Unicode in European Libraries). Il progetto CHASE coinvolge quattro biblioteche europee (in Italia la Biblioteca Nazionale di Firenze) nell'esame della fattibilità di una strategia Unicode nella gestione di trasferimenti di dati tra biblioteche diverse, utilizzando i formati MARC e UNIMARC che, come ben sappiamo, sono alla base dei cambiamenti in corso nell'informatizzazione delle biblioteche di pressoché tutte le Università italiane. Senza entrare nei particolari, dirò che Brickell ha dimostrato ampiamente detta fattibilità e dispiace solo che ancora le varie Biblioteche orientalistiche presenti nella nostra realtà accademica non siano state ancora coinvolte in un progetto così interessante: la presenza in vari Atenei italiani (Ca' Foscari di Venezia, Istituto Universitario Orientale di Napoli, l'Università "La Sapienza" di Roma, solo per citarne alcuni) di insegnamenti (con relative biblioteche) rappresentanti le più diverse aree linguistiche poteva costituire certamente un banco di prova formidabile e la sperimentazione di Unicode nell'ambito del progetto poteva rappresentare un primo passo verso un adeguamento anche dei vari sistemi bibliotecari a quella caratterizzazione multilinguistica che già contraddistingue per molti aspetti le citate Università.

3. Implementazione di Unicode in vari applicativi per l'Internet

Era logico aspettarsi (e il tema stesso del Convegno ne è una conferma) che l'Internet e la sua interfaccia ipertestuale, il World Wide Web, giocassero un ruolo preminente anche in questa sede: ormai tutto, in campo informatico, sembra confluire verso il mondo della Rete globale e anche per uno standard che per definizione vuole porsi come un riferimento obbligato nella comunicazione non poteva mancare un coinvolgimento diretto in quello che ormai sembra essere diventato il luogo deputato per lo scambio di informazioni. Già si è detto del coinvolgimento diretto di Microsoft e Netscape, i due massimi produttori mondiali di software per l'Internet (sia per server che per client), ma molti sono stati gli interventi che hanno segnalato come la necessità di portare il multilinguismo in Rete sia ormai da considerarsi una tappa obbligata. Per la casa di Seattle, Lori Brownell ha illustrato sia le strategie generali della sua azienda nell'implementazione di Unicode nel Web, sia le caratteristiche specifiche di un prodotto che è ormai parte integrante delle ultimissime versioni di Windows, Internet Explorer (A5: Supporting Multiple Languages and Character Sets with Internet Explorer). La beta della versione 4 del popolare browser, presentata in anteprima dall'esperta della Microsoft, permetteva la visualizzazione di pagine del Web scritte nelle più diverse lingue nello standard Unicode (cosa in parte possibile anche con la versione attuale) ma più significativa risultava senza dubbio l'integrazione dell'applicativo con il già citato Office 97 e le sue potenti funzioni per lo sfruttamento del codice a 16 bit per la gestione dei testi. Così Peter Amstein, sempre per la Microsoft, ha affrontato il problema dello sviluppo di applicazioni per il Web che siano compatibili con Unicode (A13: Unicode: The Right Way to Deuelop Web Applications for Windows).

Sempre in anteprima la beta di Netscape Communicator, illustrata dal responsabile per l'internazionalizzazione della nota software house Frank Yung (A4: Unicode and Internationalization in Netscape Communicator), presentava le stesse potenzialità di Explorer; l'applicativo, che contende al prodotto della Microsoft il mercato mondiale del sofware per il Web, pur offrendo una scarsa integrazione con altri prodotti che non siano direttamente destinati alla gestione delle comunicazioni, propone soluzioni interessanti per lo sfruttamento in rete delle caratteristiche multilinguistiche di Unicode, con una nuova filosofia di sviluppo del linguaggio HTML. L'interesse dei convegnisti per l'argomento ha determinato la necessità di un ulteriore spazio concesso all'estroso e brillante rappresentante di Netscape per una dimostrazione del modus operandi dell'applicativo.

In sostanza tutto il mondo dell'Internet è stato oggetto di discussione: Java (Freytag e Cavanaugh), la prospettiva del Network Computer (Hiura), gli standard già operanti nel Web e insieme la necessità di stabilirne uno anche nei sistemi di compressione usati per la trasmissione di contenuti compatibili Unicode e la filosofia della Rete hanno costituito quella che è forse da considerare la più organica delle sessioni. Infine, le varie dimostrazioni delle potenzialità di Unicode in riferimento alla Rete sono state effettuate proprio contattando on-line un Newgroup di recentissima costituzione, alt.chinese.unicode, il che costituisce un altro positivo segnale.

4. Un bilancio

Per chi scrive, il Convegno, pur interessante sotto l'aspetto delle implementazioni, lo è stato molto meno sotto quello dell'illustrazione dei progressi "interni" allo sviluppo dello standard e quelli più eminentemente tecnici. D'altra parte il Consorzio ha pubblicato solo da poco tempo il volume dedicato all'aggiornamento dello standard Unicode e la sola rilevante novità (ma che novità) riguarda la notizia diffusa dal sito Web del Consorzio sull'ampiamento degli spazi per i caratteri CJK ad altri 6.000 ideogrammi. A un sunto piuttosto scarno degli ultimi risultati conseguiti dal Comitato Tecnico del Consorzio si è dedicato uno dei guru storici, Asmus Freytag (Tutorial B: The Unicode standard: Version 2), ma anche i discorsi introduttivi di Misha Wolf e dello stesso Freytag hanno permesso anche a chi non si fosse letto i capitoli esplicativi del poderoso volume dedicato appunto alla versione 2.

Argomenti più specifici sono stati toccati un po' ovunque nelle tre diverse sessioni: scarsa è stata purtroppo - come ho già fatto notare - la partecipazione del mondo accademico e/o comunque della cultura intesa in senso tradizionale e non sempre questa partecipazione è stata accolta come doveva. Per esempio, l'intervento del prof. Matsuoka della Tokyo-Gakudaigaku, estremamente specialistico nel tentativo di illustrare la necessità di nuovi metodi per l'input e la gestione dei caratteri sino-giapponesi7 ha suscitato alcune perplessità in un uditorio forse non perfettamente a conoscenza delle problematiche coinvolte. Occorre tener presente che la grande maggioranza dei partecipanti era formata da operatori di aziende europee: programmatori, esperti di politiche di globalizzazione del software, database vendors, e altri ancora molto addentro nei meccanismi di mercato ma meno nelle problematiche tecnico-linguistiche non hanno forse permesso quell'allargamento nel dibattito che forse avrebbe potuto aprire nuove interessanti prospettive. Inoltre pochi erano i membri effettivi del Consorzio (esclusi ovviamente gli oratori), il che farebbe presupporre una scarsa attitudine dei presenti al Convegno ad affrontare tematiche piuttosto tecniche dal punto di vista linguistico. Tuttavia la connotazione particolare del pubblico del Convegno presenta anche il risvolto positivo della dimostrazione di un nuovo interesse nei confronti della globalizzazione del mondo della tecnologia; inoltre, l'affrontare con attenzione, da parte di alcuni degli oratori che ho sopra nominato (Ishida e Pratley tra gli altri) il problema della costruzione di interfacce multilinguistiche intelligenti si traduce in una vera e propria presa d'atto della necessità di non limitare l'internazionalizzazione al solo codice, ma di allargarne il concetto anche alle lingue e ai linguaggi. Tutto ciò apre confortanti prospettive di una positiva collaborazione anche in questo campo tra mondo della cultura e società moderna.

MONDO CINESE N. 94, GENNAIO-APRILE 1997

Note

1 Il presente rapporto deriva da una precedente versione stilata a beneficio dei docenti del Dipartimento di Studi Indologici ed Estremo-Orientali dell'Università Ca' Foscari di Venezia e della Commissione per la multimedialità e l'insegnamento a distanza del medesimo Ateneo. Il documento è disponibile anche nel sito Web del Dipartimento (www.unive.it/dsie)
2 Lo standard è giunto alla versione 2.0, documentata in dettaglio nel volume The Unicode Standard, Version 2.0. (dati completi in Bibliografia minima). Per un'informazione più precisa sulla cronologia degli aggiornamenti allo standard, vedasi Ibidem, p. xvii. Alla versione 2.0 sono del resto già stati apportati significativi miglioramenti: per un aggiornamento costante sullo sviluppo del sistema di codificazione e sulle iniziative del Consorzio stesso, è sempre consigliabile una visita al sito Web (www.unicode.org), dal quale è inoltre possibile scaricare materiale tecnico e informativo estremamente interessante..
3 Sussistono ovviamente alcuni problemi di gestione: il font Cyberbit, il primo true-type in formato Unicode contenente la quasi totalità dei caratteri disponibili, reso recentemente disponibile dalla Bitstream, occupa 15 Mb su disco e impegna notevolmente le risorse di sistema nel caricamento.
4 Com'è noto, il software più diffuso in ambiente Windows per la gestione del cinese e del giapponese, Twinbridge Chinese Partner, fino alla versione 4.01 non consentiva la gestione in contemporanea dei diversi codici, pur riuscendo a rimappare i singoli font su codici diversi. Nell'annuncio della release della versione 4.1 il 4 aprile c.a., la casa californiana afferma che il proprio applicativo è ormai "able to display BIG5/GB code texts on the SAME screen", ("Twinbridge Software Corporation", www. twinbridge. com, 10 aprile 1997): per l'esempio ho utilizzato AsianSuite97 della Unionway.
5 La "x" sta a significare tutte le versioni successive che continueranno però a rimanere all'interno delle linee di sviluppo già affermatesi con la corrente versione.
6 In particolare Goldstein, come già Ishida, ha rivolto la sua attenzione all'aspetto chiamato "globalizzazione del software" dedicandosi soprattutto ad alcune ipotesi di soluzione dei problemi cui va generalmente incontro il programmatore nel tentativo di approntare un software orizzontale valido per diverse realtà linguistiche.
7 Il prof. Matsuoka è docente di lingua cinese alla citata Università: il complesso sistema di gestione dei caratteri CJK presentato al convegno si basa su una ricca dotazione di basi di dati specializzate e mira soprattutto a risolvere il problema della resistenza di omofoni nei nomi propri giapponesi. Da qui partono poi varie considerazioni di carattere più generale sulla possibilità di fornire sistemi di input più direttamente controllabili dagli utenti che non gli attuali.

Bibliografia

Chung W L., "Hangeul and Computing", in Mair Victor H., Liu Yongquan (a cura di), Characters and Computers, Amsterdam 1991, pp. 146-179.

Custer Helen, Alla scoperta di Windows NT. Prefazione di David N. Cutler, Mondadori Informatica, Milano 1993.

Fowles Ken, "Unicode Evolves", in Byte, March 1997, pp. 105 - 110.

Greselin Federico, "L’informatica al servizio degli studi cinesi: gli sviluppi più recenti e le prospettive per il futuro", in Scarpari Maurizio (a cura di), Atti del Convegno 'Le fonti per lo studio della civiltà cinese', Cafoscarina, Venezia 1995, pp. 193-209.

Hubbard Preston Holly, Flohr Udo, "Global from Day One", in Byte, March 1997, pp. 97-104.

Infantino Davide, "Programmi Multilingua in Win32", in Computer Programming, n. 57, aprile 1997, pp. 105-108.

Kano Nadine, Asmus Freytag, "Internationalizing Your Win32-based Applications for Windows NT and Windows 95", in Microsoft Systems Journal, 12, 1994, pp. 49-61.

Kano Nadine, Asmus Freytag, "The International Character Set Conundrum: ANSI, Unicode and Microsoft Windows", in Microsoft Systems Journal, 11, 1994, pp. 55-70.

Mair Victor H., Liu Yongquan (a cura di), Characters and Computers, IOS Press, Amsterdam 1991.

Hayashi Shiro, Matsuoka Eiji, Nihon no kanji-Chugoku no kanji (Caratteri giapponesi - caratteri cinesi), Sanseido, Tokyo 1995.

Petzold Charles, "NT's Multilingual Solution", in Windows Sources, August 1993, p. 103.

Petzold Charles, "Typing Unicode Characters from the Keyboard", in PC Magazine (US edition), December 7, 1993, pp. 426-442.

Petzold Charles, "Unicode, Wide Characters, and C", in PC Magazine (US edition), November 9, 1993, pp. 369-376.

Petzold Charles, "Viewing a Unicode TrueType Font Under Windows NT", in PC Magazine (US edition), November 23, 1993, pp. 379-390.

Proccedings of the Unicode Implementers Workshop, Tokyo, Japan, April 11 and 12, 1994, (articoli e sheets per presentazioni del workshop), s.l., The Unicode Consortium, 1994.

The Unicode Standard, Version 2.0., (Ed. by) The Unicode Consortium, CD-ROM Included, Reading, Mass. - Menlo Park - New York ecc., Addison-Wesley Publishing Company, Inc., 1996

Thompson P.M., "Chinese Text Input and Corpus Linguistics", in Mair Victor H., Liu Yongquan (a cura di), Characters and Computers, Amsterdam 1991, pp. 122-130.

 

CENTRORIENTE - P. IVA 07908170017
Copyright Centroriente 1999-2024