永井@知能.九工大です.

From: Yukihiro Matsumoto <matz / ruby-lang.org>
Subject: [ruby-dev:32564] Re: Binary String
Date: Thu, 13 Dec 2007 08:20:54 +0900
Message-ID: <E1J2asw-0005T6-Fh / localhost>
> 外部から入力されたデータのうち、binaryではないと明らかなもの
> は、default_externalエンコーディングが付与されます。逆に
> binaryである可能性があるものについてはascii-8bitになります。
     (snip)
> こちらはありえます。明示的にdefault_externalをASCIIに指定した
> 場合とか、知らないエンコーディングのロケールだったりとか。で
> も、その場合には外部から入力されたデータのエンコーディングは
> ASCIIであると考えてよいので、UTF-8が対象であれば変換は不要で
> はないかと思います。対象がUTF-16の場合にはbinaryとasciiを明確
> に区別する必要が出てきますが。

結局のところ,binary であることが明確である場合であっても,
「binary である」という事実を明確に記録しておくことはできない
ということですよね?

まつもとさんは binary string を表す encodng の導入には
乗り気でないようにお見受けしますが,その理由は何なのでしょうか?

素人考えでは,binary を表す encoding を導入することで,
binary string であることが明確化されて嬉しいということはあっても
その encoding の存在が問題となることはないように感じます.
-- 
                                       永井 秀利 (九工大 知能情報)
                                           nagai / ai.kyutech.ac.jp