json_encode之后,中文存到数据库变成了unicode,长度是怎么算的?
我发现数组中的中文经过json_encode之后,存到数据库变成了unicode。例如:“我是个中文”,变成了:\u6211\u662f\u4e2a\u4e2d\u658...
我发现 数组中的 中文经过json_encode之后,存到数据库变成了unicode。
例如:“我是个中文”,
变成了: \u6211\u662f\u4e2a\u4e2d\u6587
本来“我是个中文”,共记10个字符。
变成了unicode之后,是不是就 共记30个字符???
text长度65535,如果能直接保存中文,大概能有3万多个中文。
如果变成了unicode,那能保存的中文岂不是只有6500个左右?
如果text长度不够用,改为 mediumtext,会不会使数据库变得又大又慢? 展开
例如:“我是个中文”,
变成了: \u6211\u662f\u4e2a\u4e2d\u6587
本来“我是个中文”,共记10个字符。
变成了unicode之后,是不是就 共记30个字符???
text长度65535,如果能直接保存中文,大概能有3万多个中文。
如果变成了unicode,那能保存的中文岂不是只有6500个左右?
如果text长度不够用,改为 mediumtext,会不会使数据库变得又大又慢? 展开
1个回答
推荐律师服务:
若未解决您的问题,请您详细描述您的问题,通过百度律临进行免费专业咨询