llama-cpp-cffi

View on PyPIReverse Dependencies (0)

0.3.1 llama_cpp_cffi-0.3.1-cp313-cp313-musllinux_1_2_x86_64.whl
llama_cpp_cffi-0.3.1-cp313-cp313-musllinux_1_2_aarch64.whl
llama_cpp_cffi-0.3.1-cp313-cp313-manylinux_2_28_x86_64.whl
llama_cpp_cffi-0.3.1-cp313-cp313-manylinux_2_28_aarch64.whl
llama_cpp_cffi-0.3.1-cp312-cp312-musllinux_1_2_x86_64.whl
llama_cpp_cffi-0.3.1-cp312-cp312-musllinux_1_2_aarch64.whl
llama_cpp_cffi-0.3.1-cp312-cp312-manylinux_2_28_x86_64.whl
llama_cpp_cffi-0.3.1-cp312-cp312-manylinux_2_28_aarch64.whl
llama_cpp_cffi-0.3.1-cp311-cp311-musllinux_1_2_x86_64.whl
llama_cpp_cffi-0.3.1-cp311-cp311-musllinux_1_2_aarch64.whl
llama_cpp_cffi-0.3.1-cp311-cp311-manylinux_2_28_x86_64.whl
llama_cpp_cffi-0.3.1-cp311-cp311-manylinux_2_28_aarch64.whl
llama_cpp_cffi-0.3.1-cp310-cp310-musllinux_1_2_x86_64.whl
llama_cpp_cffi-0.3.1-cp310-cp310-musllinux_1_2_aarch64.whl
llama_cpp_cffi-0.3.1-cp310-cp310-manylinux_2_28_x86_64.whl
llama_cpp_cffi-0.3.1-cp310-cp310-manylinux_2_28_aarch64.whl
llama_cpp_cffi-0.3.1-pp310-pypy310_pp73-manylinux_2_28_x86_64.whl
llama_cpp_cffi-0.3.1-pp310-pypy310_pp73-manylinux_2_28_aarch64.whl
0.1.5 llama_cpp_cffi-0.1.5-cp312-cp312-musllinux_1_2_x86_64.whl
llama_cpp_cffi-0.1.5-cp312-cp312-musllinux_1_2_aarch64.whl
llama_cpp_cffi-0.1.5-cp312-cp312-manylinux_2_28_x86_64.whl
llama_cpp_cffi-0.1.5-cp312-cp312-manylinux_2_28_aarch64.whl
llama_cpp_cffi-0.1.5-cp311-cp311-musllinux_1_2_x86_64.whl
llama_cpp_cffi-0.1.5-cp311-cp311-musllinux_1_2_aarch64.whl
llama_cpp_cffi-0.1.5-cp311-cp311-manylinux_2_28_x86_64.whl
llama_cpp_cffi-0.1.5-cp311-cp311-manylinux_2_28_aarch64.whl
llama_cpp_cffi-0.1.5-cp310-cp310-musllinux_1_2_x86_64.whl
llama_cpp_cffi-0.1.5-cp310-cp310-musllinux_1_2_aarch64.whl
llama_cpp_cffi-0.1.5-cp310-cp310-manylinux_2_28_x86_64.whl
llama_cpp_cffi-0.1.5-cp310-cp310-manylinux_2_28_aarch64.whl
llama_cpp_cffi-0.1.5-pp310-pypy310_pp73-manylinux_2_28_x86_64.whl
llama_cpp_cffi-0.1.5-pp310-pypy310_pp73-manylinux_2_28_aarch64.whl

Wheel Details

Project: llama-cpp-cffi
Version: 0.1.5
Filename: llama_cpp_cffi-0.1.5-cp310-cp310-manylinux_2_28_aarch64.whl
Download: [link]
Size: 1098363
MD5: 0bb4097a36e1f958574cfb7190bf289d
SHA256: 9450ee5b53729457467680a903f808284aea36bf86db211b70528c131dfe131c
Uploaded: 2024-07-24 06:36:09 +0000

dist-info

METADATA

Metadata-Version: 2.1
Name: llama-cpp-cffi
Version: 0.1.5
Summary: Python binding for llama.cpp using cffi
Author: Marko Tasic
Author-Email: mtasic85[at]gmail.com
Home-Page: https://github.com/tangledgroup/llama-cpp-cffi
Project-Url: Repository, https://github.com/tangledgroup/llama-cpp-cffi
License: MIT
Classifier: License :: OSI Approved :: MIT License
Classifier: Programming Language :: Python :: 3
Classifier: Programming Language :: Python :: 3.10
Classifier: Programming Language :: Python :: 3.11
Classifier: Programming Language :: Python :: 3.12
Requires-Python: >=3.10,<4.0
Requires-Dist: aiohttp[speedups] (<4.0.0,>=3.9.5); extra == "openai"
Requires-Dist: attrs (<24.0.0,>=23.2.0)
Requires-Dist: cffi (<2.0.0,>=1.16.0)
Requires-Dist: huggingface-hub (<0.25.0,>=0.24.0)
Requires-Dist: jinja2 (<4.0.0,>=3.1.4)
Requires-Dist: numba (<0.61.0,>=0.60.0)
Requires-Dist: openai (<2.0.0,>=1.35.15); extra == "openai"
Requires-Dist: protobuf (<6.0.0,>=5.27.2)
Requires-Dist: psutil (<7.0.0,>=6.0.0)
Requires-Dist: sentencepiece (<0.3.0,>=0.2.0)
Requires-Dist: setuptools (<72.0.0,>=71.0.3)
Requires-Dist: transformers (<5.0.0,>=4.42.4)
Requires-Dist: uvloop (<0.20.0,>=0.19.0); extra == "uvloop"
Provides-Extra: openai
Provides-Extra: uvloop
Description-Content-Type: text/markdown
[Description omitted; length: 4000 characters]

WHEEL

Wheel-Version: 1.0
Generator: poetry-core 1.9.0
Root-Is-Purelib: false
Tag: cp310-cp310-manylinux_2_28_aarch64

RECORD

Path Digest Size
llama/__init__.py sha256=Mb2aX9Hr2xXTgp7nmXujMAJTc7lNXoHvhPpmQiQFgvA 159
llama/_llama_cli_cpu.cpython-310-aarch64-linux-gnu.so sha256=pxBqBhLf_LDCpYofX1toJytVtIkt0HJlVk6Wlb_2_sg 2958440
llama/formatter.py sha256=ObsrjoNhqedPfiJB-nLMcsHmTIpUUsc3v4tfBB5lxMw 5751
llama/llama_cli.py sha256=fRd4BEyjVGTxQJWnfv2XxLjvx4Nrw9pn9ROhji49WBo 285
llama/llama_cli_cffi_cpu.py sha256=7vxAaOXCx85ByzFOY59IirNySqXi9ykeSCA7gn9sAEw 4739
llama/llama_cli_cffi_cuda_12_5.py sha256=WTkxzJFS0NBajkZOpdETLV0TWgEKmJdbEavBax-v_Hw 4681
llama/model.py sha256=I0hm5nq17zgsCsTsdwJ2uRQt4Fk4oc_ylauunO6rub0 231
llama/openai.py sha256=YYL30qMK_kvOwZ_Z-pYIKi_h3BVzUFkXuAUgHjkvYnY 3904
llama/options.py sha256=3_P2DcV5UicHjyAcsBt3aOMdlWQnnlNTmiQkO7PRuNQ 26711
llama_cpp_cffi-0.1.5.dist-info/LICENSE sha256=jaX_Invr278Ihgo-qKDHtGTa3MDM67DBb3JeruqK2XE 1068
llama_cpp_cffi-0.1.5.dist-info/METADATA sha256=q9-M7nA4zbFTgVPPJiUeRqc8SuADdnXLUWP0xafIuxU 5290
llama_cpp_cffi-0.1.5.dist-info/WHEEL sha256=kWNAZdTFkNMjywYxwFgTxGlumZPaj5KcSqL3qhSM9Eo 111
llama_cpp_cffi-0.1.5.dist-info/entry_points.txt sha256=Gx56uy3ubAWtR-c1otWZW-VlVFb7QuaJkUEvCFUq1KQ 71
llama_cpp_cffi-0.1.5.dist-info/RECORD

entry_points.txt

build = scripts.build:build
clean = scripts.clean:clean