0503: gemini 价格更新 | TIOBE PHP跌至17 | Node v22.1.0 发布 V8代码缓存

wufei123 发布于 2024-09-09 阅读(3)

TLDRgemini-pro 1.0和1.5价格更新TIOBE 2404 - PHP 大跌,Python 第一NodeJS v22.1.0 发布,可通过环境变量启用v8代码缓存NativePHP 已支持 Windows

meta 用 llama 建立 LLM 的领导地位占位图片服务(picsum) & 批量下载(unsample)gemini-pro 1.0和1.5价格更新1.0-pay 与 GPT-3.5 价格等同,输入价格为每百万个Token $0.5,输出则是每百万个Token $1.5

1.5-pay 则比 GPT-4 便宜,GPT-4-Turbo 是 10/30,而 1.5-pay 是 7/21具体看下图:RPMTPMRPD输入输出1.0免费1532K1.5KFreeFree1.0付费

360120K30K$0.51.51.5免费232K 50FreeFree1.5付费10 10M2K$721RPM: 每分钟请求限制TPM: 每分钟请求 Token 限制RPD: 每天请求限制输入和输出的单位都是 美元/每百万Token

TIOBE 2404 - PHP 跌至17Python/Java/C 前三PHP 由去年同期第9名跌至第17名;Python 保持第一,Java 第二,C 第三NodeJS v22.1.0 发布,可通过环境变量启用v8代码缓存。

5月2日发布的 v22.1.0 版本 引入了 on-disk code caching通过 环境变量 NODE_COMPILE_CACHE 指定缓存文件夹,启用 v8-code-caching,将编译后的 JavaScript 代码缓存到磁盘上,从而加快代码二次加载/编译速度。

其它增强包括 base64 和 base64url  性能提升,等等详情可参考:https://nodejs.org/en/blog/release/v22.1.0关于v8-code-caching: 

https://v8.dev/blog/code-caching-for-devs占位图片服务(picsum) &批量下载(unsample)picsum:picsum 是一个免费的图片服务,可以用来生成占位图,用于测试和演示。

用户可以在 URL:https://picsum.photos/随机获取尺寸为 800x800 的占位图:https://picsum.photos/800随机获取尺寸为 800x600 的灰度占位图:

https://picsum.photos/800/600?grayscaleunsample:unsample 则是基于 picsum 的批量下载工具;用户只需指定尺寸,则可批量下载马上使用:  https://unsample.net/

NativePHP 已支持 WindowsNativePHP 为PHP开发者提供构建桌面应用的方案项目使用了下列技术: PHP, Electron, Tauri, Laravel, Symfony, Static PHP CLI

使用了 Sqlite 作为应用数据库更多的技术介绍:https://nativephp.com/docs/1/getting-started/introductionNativePHP在5月1日发布了对windows支持的版本

meta 用 llama 建立 LLM 的领导地位Llama 3 是 Meta 推出的最新人工智能模型,免费提供,并采用相对开放(但并非开源)的许可证,允许开发者在大多数商业应用程序和服务中部署该模型Llama 3 在许多方面重复了前代版本 Llama 2 的策略:提供高达 700 亿个参数的模型,在不增加模型尺寸的情况下取得了更好的成绩,并击败了 Google 的 Gemini 和 Mistral 7B 等竞争对手的小型和中型模型。

Llama 3 400B 仍处于训练阶段,但已在基准测试中取得了令人印象深刻的结果;预计今年晚些时候发布Llama 3 70B 已经在人工智能开发者中心 Hugging Face 上位居趋势模型榜首,五天内下载量超过 275,000 次。

Meta 因其"开放"人工智能方法而受到批评但这种批评并没有阻止 Meta 的崛起,Llama 3 巩固了该公司在竞争对手中的领先地位Llama 3 很可能会成为开放权重模型中的标准,吸引大量的用户和关注;预计将成为开发者探索和试验人工智能的首选模型。

详情请参考原文: https://spectrum.ieee.org/meta-llama-3欢迎关注官方微信公众号: oh my x获取开源软件和 x-cmd的最新用法与独家资讯

亲爱的读者们,感谢您花时间阅读本文。如果您对本文有任何疑问或建议,请随时联系我。我非常乐意与您交流。

发表评论:

◎欢迎参与讨论,请在这里发表您的看法、交流您的观点。