香港警察、無認可の仮想通貨取引所「JPEX」めぐる詐欺被害で8人を逮捕 

被害総額200億円超の可能性

https://coinpost.jp/?p=482798
香港警察は19日、暗号資産(仮想通貨)取引所JPEXに関連した詐欺共謀の容疑で8人を逮捕したと発表した。逮捕されたのは、JPEXの従業員やソーシャルメディアのインフルエンサーらで、インスタグラムで19万人のフォロワーをもつジョセフ・ラム氏も含まれているという。警察は現地時間18日夜の時点で、「保有する銘柄を引き出せなくなった」など1,641件の苦情を受理しており、被害総額は約224億円(11億9,000万香港ドル)にのぼるとみられてい
現地メディア香港商報の報道によると、これまでの捜査で、警察は総額約1億5,000万円(800万香港ドル)相当の現金や宝石、コンピュータ、携帯電話などを押収した。
また、容疑者とその関連企業に関する捜査で、銀行預金約2億8,000万円(1,500万香港ドル)が凍結され、不動産3件(8億3,000万円、4,400香港ドル相当) が差し押さえられているという。警察はさらに約11億3,000万円(6,000香港ドル)の不正収益の没収も検討している。
香港の李家超行政長官は、定例記者会見で「今回の事件は、投資家が暗号資産に投資する場合、認可を受けたプラットフォームに投資することの重要性を浮き彫りにしている」とコメント。投資家保護を強化するため、香港証券先物委員会(SFC)が状況を「注意深く監視していく」と述べた。
SFCは13日、JPEXが「規制されていない暗号資産取引プラットフォーム」であると指摘し、警告する声明を発表していた。

規制当局の指摘
JPEXは2022年7月から、SFCの警告リストに掲載されている。
SFCは13日の声明で、JPEX及びその関連会社がSFCにより、認可を受けていないだけなく、香港で暗号資産取引プラットフォーム(VATP)を運営するための認可申請すらも行っていないと非難した。
一方、同取引所を宣伝する 店頭(OTC)取引所やインフルエンサーらは、 JPEXが規制された取引所であり、香港でVATPライセンス申請を提出済みであると示唆したり、虚偽または誤解を招く発言をソーシャルメディア上で行ったとSFCは批判している。
また、SFCは投資家から、JPEXの口座から仮想通貨を引き出すことができなかったり、残高の減少や改ざんに関する苦情を受け取っていることを明らかにした。
JPEXはウェブサイトに、「デジタル資産と仮想通貨取引にライセンスを取得し、認められたプラットフォーム」であると記載。VATPを運営するために海外の規制当局からライセンスを取得していると主張している。
JPEXは、運営本部はドバイにあり、ドバイ仮想資産規制庁(VARA)の監督下にあるとしているが、 公開されているVARAのサービスプロバイダーリストには記載がないとSFCは指摘した。さらに、SFCはJPEXが香港の規制では認められていない仮想通貨商品などを提供していたと述べている。同社のサイトでは、貯蓄商品としてETHに対して21%、BTCに対して20%、USDTに対して19%の年率利回りの貯蓄商品を提供していた。

JPEXの反論
JPEXはSFCの声明発表以後、公式声明を出すなど反論を続けている。
同社は2023年2月23日に、香港で仮想通貨取引ライセンスを申請したと発表していたが、その後「ライセンス申請プロセスと法的文書の準備に時間がかかるためライセンス申請は準備段階にある」などと説明が二転三転していた。
一方、SFCについては、香港をWeb3のハブとして推進する香港政府の政策と矛盾しており、「当局から不当な扱いを受けた」などと主張した。
JPEXは、今回SFCがJPEXに不利な声明を発表したことによって、JPEXと提携している第三者のマーケットメーカーが「悪意を持って、資金を凍結させた」と主張。その結果、JPEXは流動性が低下し運用難に陥ったため、一部の取引を停止せざるを得なくなったという。
JPEXは現物取引は継続していると19日の声明で明らかにした。一方、「Earn」プログラムの運営は一時停止し、ゲームプラットフォームも凍結されている。
ユーザーの資金引き出しに関しては14日に手数料の引き上げを発表。しかし、ユーザーによると1,000USDTの出金上限に対し、999USDTの手数料を請求するという酷いもののようだ。
警察は、この出金制限は偽装であり、JPEXの運営形態を考慮すると、不正行為と詐欺の共謀に関与していると疑う「合理的な理由」があると述べている。

OpenAI introduces fine-tuning for GPT-3.5 Turbo and GPT-4

OpenAI has announced the ability to fine-tune its powerful language models, including both GPT-3.5 Turbo and GPT-4.

The fine-tuning allows developers to tailor the models to their specific use cases and deploy these custom models at scale. This move aims to bridge the gap between AI capabilities and real-world applications, heralding a new era of highly-specialised AI interactions.

With early tests yielding impressive results, a fine-tuned version of GPT-3.5 Turbo has demonstrated the ability to not only match but even surpass the capabilities of the base GPT-4 for certain narrow tasks.

All data sent in and out of the fine-tuning API remains the property of the customer, ensuring that sensitive information remains secure and is not used to train other models.

The deployment of fine-tuning has garnered significant interest from developers and businesses. Since the introduction of GPT-3.5 Turbo, the demand for customising models to create unique user experiences has been on the rise.

Fine-tuning opens up a realm of possibilities across various use cases, including:

Improved steerability: Developers can now fine-tune models to follow instructions more accurately. For instance, a business wanting consistent responses in a particular language can ensure that the model always responds in that language.

Reliable output formatting: Consistent formatting of AI-generated responses is crucial, especially for applications like code completion or composing API calls. Fine-tuning improves the model’s ability to generate properly formatted responses, enhancing the user experience.

Custom tone: Fine-tuning allows businesses to refine the tone of the model’s output to align with their brand’s voice. This ensures a consistent and on-brand communication style.

One significant advantage of fine-tuned GPT-3.5 Turbo is its extended token handling capacity. With the ability to handle 4k tokens – twice the capacity of previous fine-tuned models – developers can streamline their prompt sizes, leading to faster API calls and cost savings.

To achieve optimal results, fine-tuning can be combined with techniques such as prompt engineering, information retrieval, and function calling. OpenAI also plans to introduce support for fine-tuning with function calling and gpt-3.5-turbo-16k in the upcoming months.

The fine-tuning process involves several steps, including data preparation, file upload, creating a fine-tuning job, and using the fine-tuned model in production. OpenAI is working on a user interface to simplify the management of fine-tuning tasks.

The pricing structure for fine-tuning comprises two components: the initial training cost and usage costs.

Training: $0.008 / 1K Tokens
Usage input: $0.012 / 1K Tokens
Usage output: $0.016 / 1K Tokens

The introduction of updated GPT-3 models – babbage-002 and davinci-002 – has also been announced, providing replacements for existing models and enabling fine-tuning for further customisation.

These latest announcements underscore OpenAI’s dedication to creating AI solutions that can be tailored to meet the unique needs of businesses and developers.

(Image Credit: Claudia from Pixabay)

See also: ChatGPT’s political bias highlighted in study

Want to learn more about AI and big data from industry leaders? Check out AI & Big Data Expo taking place in Amsterdam, California, and London. The comprehensive event is co-located with Digital Transformation Week.

Explore other upcoming enterprise technology events and webinars powered by TechForge here.
Tags: ai, artificial intelligence, fine tuning, gpt-3, gpt-3.5 turbo, gpt-4, openai